БПЛА без приказа атаковал человека

Впервые в истории робот самостоятельно принял решение напасть на человека. По рассказу журналистов издания New Scientist, инцидент произошел в 2020 году на севере Ливии в ходе столкновений частей Халифы Хафтара и войск Правительства национального согласия (ПНС).

Читайте нас на:  

БПЛА турецкого производства KARGU-2 потерял указанную оператором цель, но вскоре выбрал другую – отступающего бойца противника. Через год прецедент был рассмотрен в Совете Безопасности ООН и попал на страницы СМИ.

«Похоже, это первый случай, когда беспилотные летательные аппараты атаковали людей без соответствующих инструкций. И теперь возникают вопросы о будущем БПЛА: можем ли мы полагаться на их систему распознавания объектов, часто ли она ошибается в выборе цели?» - заявил специалист американского Национального консорциума по изучению терроризма Зак Калленборн.

Активисты неправительственной организации Human Rights Watch призвали остановить «роботов-убийц», развернув кампанию против разработки, производства и использования полностью автономных видов вооружения.

Прецедент может привести к принятию правил робототехники, предсказанных фантастами XX-го века. Первое из них гласит, что робот не может причинить вред человеку, и эта прошивка должна стоять на всех умных машинах.

Об искуственных нейросетях, способных уничтожить человечество, предупреждали Билл Гейтс, Илон Маск и Стивен Хокинг. Но пока говорить о столкновении человеческого и искусственного интеллектов рано.

Представитель экспертных групп РК-39 и «Знаниевый реактор» Сергей Шилов уверен, что турецкий дрон принимал решение без применения сложных технологий.

«Никто на такой квадрокоптер не станет ставить компьютер с нейросетями. Дрон этого класса стоит 100-200 долларов, а устройство, способное поддерживать нейросети – как минимум в несколько раз больше. Думаю, что на квадрокоптере стояла камера или тепловизор, способные распознать человеческую фигуру. А значит, в условиях боя робот просто выбрал первую попавшуюся цель и атаковал ее. Вероятно, в случае потери связи или угрозы перехвата у подобного дрона включается режим «камикадзе».

При этом отличить бойца армии Хафтара от солдата ПНС дрон не в состоянии – он будет нацеливаться на любого человека, оказавшегося в зоне видимости. То есть говорить о решении, принятом роботом, пока невозможно.

Теоретически, системы, способные делать выбор, уже существуют. «Но это дроны другого класса, другой цены. Их точно не будут использовать как камикадзе. Американский MQ-9 Reaper отличает своих от чужих – но не каждого солдата, а боевые машины», - объясняет Сергей Шилов.

Что касается этического аспекта новости, эксперт уверен, что ответственность всегда ложится на человека: «У дрона нет свободы воли, за него отвечает оператор, пославший машину на задание. Убивать можно и микроскопом, но Левенгук в этом не будет виноват».

Партнеры