Автор Александра Григоренко
Человечество застыло в прыжке в неизвестность. Развитие искусственного интеллекта даже в бытовом обиходном применении изрядно удивляет и даже пугает впечатлительных пользователей. Предсказать, насколько масштабные и всеобъемлющие изменения ждут нас в этой технологической сфере, как быстро они будут происходить и останутся ли управляемыми, сегодня практически невозможно.
Однако вопросы взаимозависимости фундаментальных вопросов глобальной безопасности и изменения военной инфраструктуры на основе ИИ при всей сложности контроля, регулирования и прогнозирования игнорировать нельзя.
Любой анализ, тем не менее, будет неполным, поскольку применение ИИ в военной сфере очень масштабно, границы его с гражданскими отраслями стерты, а сама тема нагружена трудно вычленяемыми из информационного потока данными, а главное – имеет гигантскую серую зону секретных разработок и испытаний.
При прочих вводных внедрение искусственного интеллекта в военные системы выглядит как логичный шаг на пути к модернизации армии. Но мрачная реальность такова, что неконтролируемое развитие автономных систем вооружений (САС по классификации ООН) содержит не вполне предсказуемые риски. Дело не только в опасности случайного ракетного запуска или ошибки дрона – проблема куда глубже и сложнее.
Главная угроза ИИ в военной сфере – это иллюзия контроля, когнитивное искажение, которому подвержен человек. САС даже в режиме под присмотром оператора обладают способностью к быстрому принятию решений, которые могут оказаться вне человеческого контроля. Момент, когда ИИ решает атаковать или остановиться, наступает быстрее, чем человек способен осознать ситуацию. Это создает риск непреднамеренной эскалации конфликта, когда «случайная» атака может стать началом полномасштабного военного столкновения.
Вторая опасность – это нематериальная и неконтролируемая гонка вооружений. ИИ становится как бы новым ядерным оружием, но опаснее его. Если во времена холодной войны ядерный паритет служил сдерживающим фактором, то гонка вооружений в сфере ИИ представляет собой совсем другую картину. Здесь нет публичных испытаний и демонстрации силы: технологии развиваются в тени лабораторий и секретных программ. Каждая страна стремится получить преимущество, не раскрывая своих реальных возможностей, что создает атмосферу подозрительности и страха. Отсутствие прозрачности ведет к теневой гонке вооружений.
И третий аспект – это двойное назначение, двуликость ИИ: гражданские технологии могут становиться оружием практически моментально, адаптация их для военных нужд не представляет трудности. Системы распознавания лиц, алгоритмы управления беспилотниками, умные датчики и контроллеры – все это уже используется в боевых действиях. Граница между мирными и военными приложениями ИИ размыта, и ее легко пересечь незаметно для международного сообщества.
Еще один пугающий аспект – угроза асимметрии. В отличие от ядерного оружия, разработка ИИ требует меньше ресурсов и доступна даже небольшим государствам и негосударственным группам. Это ведет к асимметричной угрозе, когда малые державы или даже террористические организации могут получить доступ к мощным инструментам ведения войны. Что такое вооруженный дрон, управляемый искусственным интеллектом, в руках экстремистов? Здесь не помогут дипломатические договоры и санкции – машина будет подчиняться только своему алгоритму, точнее, хозяину своего алгоритма.
И еще одна дискутируемая проблема – этическая пустота. Кто несет ответственность? Кто будет отвечать за действия автономных систем? Когда машина ошибается, последствия могут быть трагическими, но, в отличие от человека, ее невозможно привлечь к ответственности. Перекладывание вины на разработчиков, военных операторов или даже на алгоритм ведет к отсутствию морального субъекта. Это создает опасный прецедент, когда человеческая жизнь оказывается во власти беспристрастного кода.
Готовы ли мы передать власть над жизнью и смертью в руки алгоритма, способного к обучению, результаты которого мы не можем предвидеть? На этот вопрос еще не успели ответить, по крайней мере, не пришли к консенсусу даже на уровне международных институтов, но значительный опыт применения автономных боевых систем в реальных конфликтах уже получен и продолжает наращиваться.
Поле боя и программный код
Турецкий квадрокоптер STM Kargu-2 был использован в Ливии в 2020 г. – это первый зарегистрированный случай боевого применения полностью автономной системы, способной атаковать человека без участия оператора. Это событие стало важным рубежом в военной истории, обозначив начало эпохи, когда машины могут сами решать, кто должен жить, а кто – нет. Согласно отчету ООН, опубликованному в марте 2021 г., этот беспилотник атаковал силы, связанные с Халифой Хафтаром, без непосредственного управления оператором. Компания STM, производитель Kargu-2, заявляет, что дрон способен работать как в автономном, так и в ручном режиме, используя алгоритмы машинного обучения для распознавания и отслеживания целей.

Турецкий квадрокоптер STM Kargu-2
Израильские барражирующие боеприпасы, такие как IAI Harpy, ищут и уничтожают радары противника. Хотя они не обладают полноценным ИИ, эти системы могут выполнять миссии с высокой степенью автономности. Они широко применяются в военных конфликтах, а возможностей тестировать апгрейды у Израиля достаточно.
В мае 2018 г. израильские силы с помощью Harop (разновидность Harpy) уничтожили сирийский зенитный комплекс «Панцирь-С1». Следует отметить, что на момент атаки комплекс не функционировал и не имел боеприпасов. В апреле 2016 г., во время обострения ситуации в Нагорном Карабахе, азербайджанская армия использовала IAI Harop для атаки транспортных средств и стационарных объектов противника.
IAI Harpy и его модификации состоят на вооружении нескольких стран, включая Индию, Южную Корею и Турцию, что свидетельствует об их широком распространении и применении в различных регионах мира.
США
Американская автоматическая зенитная установка Phalanx CIWS способна реагировать на угрозы без участия оператора. Это оружие активно используется для защиты кораблей от ракетных атак, автоматически распознавая и уничтожая цели, но без возможности адаптации к изменениям окружающей среды. Эти системы можно считать «предшественниками» полноценного автономного оружия, так как они ограничены заранее установленными сценариями действий.

Американская автоматическая зенитная установка Phalanx CIWS
Инициатива Collaborative Combat Aircraft (CCA) в США направлена на создание автономных беспилотных летательных аппаратов, известных как «лояльные ведомые» (loyal wingman). Эти системы разрабатываются для взаимодействия с пилотируемыми самолетами, такими как B-21 Raider, и включают дроны MQ-28 Ghost Bat, способные выполнять автономные миссии разведки, патрулирования и атаки. Автономные дроны действуют в связке с пилотируемыми истребителями, увеличивая их боевой потенциал и предоставляя дополнительные сенсоры и огневую мощь, что, безусловно, развивает боевые возможности. Кроме того, использование «лояльных ведомых» позволяет выполнять самые опасные задачи (например, глубокую разведку во вражеском тылу) без риска для жизни пилотов. Интегрированные алгоритмы ИИ позволяют дронам самостоятельно адаптироваться к изменениям обстановки на поле боя и принимать решения в реальном времени.
Австралийский беспилотник MQ-28 Ghost Bat, созданный в сотрудничестве с Boeing, представляет собой один из ключевых проектов в рамках инициативы CCA. Он также оснащен системой ИИ, позволяющей действовать в качестве автономного разведчика и напарника для истребителей.
Kratos XQ-58 Valkyrie – беспилотник, который входит в программу научно-исследовательской лаборатории ВВС США по разработке экономичных авиационных технологий (Low Cost Attritable Aviation Technologies, LCAAT). Задача беспилотных аппаратов LCAAT – сопровождение истребителей F-22 и F-35 во время боевых заданий при наличии на борту как систем наблюдения, так и вооружений.

БПЛА Kratos XQ-58 Valkyrie в сопровождении пары истребителей F-35
В целом инициатива CCA отражает стратегию Пентагона по увеличению автономии и взаимодействия между пилотируемыми и беспилотными системами, и становится ключевым элементом в планировании будущих военных операций. Однако это лишь капля в море американских инициатив и создаваемых институтов, цель которых – интеграция ИИ в боевые системы.
Вот некоторые из наиболее результативных институтов США, которые заняты наращиванием ИИ технологий для САС.
DARPA (Агентство перспективных исследовательских проектов обороны) – одна из ведущих организаций, занимающаяся инновационными исследованиями и разработками в области оборонных технологий, включая ИИ, закладывая основу для новых военных систем. Среди программ DARPA, связанных с ИИ:
- Project Maven – инициатива, направленная на использование машинного обучения для анализа видеозаписей с дронов и автоматического выявления объектов на поле боя;
- OFFSET (Offensive Swarm-Enabled Tactics) – программа, фокусирующаяся на разработке тактики для использования роя дронов, управляемых ИИ, в городских условиях;
- XAI (Explainable AI) – проект по созданию объяснимого ИИ, который позволяет пользователям лучше понимать решения, принимаемые автономными системами.
CDAO (Chief Digital and Artificial Intelligence Office – Главный офис по цифровому и искусственному интеллекту) был основан в 2022 г. для координации всех проектов, связанных с ИИ, в военной сфере. Задача CDAO – ускорить разработку и внедрение ИИ-технологий в интересах национальной безопасности. Основное направление работы – анализ больших данных, получаемых с разведывательных систем, спутников и дронов. Также центр отвечает за разработку унифицированных стандартов и протоколов для внедрения ИИ в различные подразделения армии, флота и ВВС США.
DIU (Defense Innovation Unit – Управление по оборонным инновациям) – это подразделение министерства обороны США, работающее над ускоренным внедрением коммерческих ИИ-технологий в военные программы. DIU активно сотрудничает с технологическими стартапами и компаниями из Силиконовой долины, что позволяет быстро тестировать и внедрять новые решения. Примеры проектов DIU:
- Predictive Maintenance – использование ИИ для предсказания поломок военной техники и повышения ее надежности.
- Autonomous Maritime Systems – разработка автономных морских платформ, способных выполнять миссии разведки и патрулирования.
AFRL (Air Force Research Laboratory – Центр исследований и разработок ВВС США) уделяет особое внимание созданию автономных летательных аппаратов и ИИ-алгоритмов для военных миссий. Основные проекты AFRL:
- Skyborg – создание очередного автономного «лояльного ведомого», который будет действовать в связке с пилотируемыми истребителями.
- Autonomous Collaborative Platforms – разработка беспилотных систем, способных координироваться друг с другом и выполнять сложные миссии без участия человека.
NIST (Национальный институт стандартов и технологий) играет важную роль в разработке стандартов и рекомендаций по использованию ИИ в оборонной сфере, внедряя протоколы безопасности и тестирования для обеспечения надежности, предсказуемости и объясняемости ИИ-систем, используемых в военных приложениях.
Вы можете дочитать этот и другие материалы сайта, оформив подписку.