Новый оборонный заказ. Стратегии
Новый оборонный заказ. Стратегии
РУС |  ENG
Новый оборонный заказ. Стратегии

Искусственный интеллект на войне

Автор Виталий Каберник

Информационный бум вокруг ИИ, в том числе военного применения, сопровождается отсутствием четкого определения. За «элементами ИИ» могут скрываться алгоритмы распределения целей в групповой атаке, системы машинного зрения, алгоритмы нечеткой логики и что угодно еще. Поэтому важно обозначить рамки того, что на самом деле следует считать ИИ, какие системы и средства оперируют в пограничной зоне, а какие используют модный термин без достаточных на то оснований.

 

Определение ИИ, которое выдает само ИИ-приложение, нужной четкостью не обладает:

В самом широком смысле ИИ – это способность компьютера или машины имитировать человеческие когнитивные функции, такие как обучение, рассуждение, решение проблем и восприятие. Классификация ИИ достаточно сложна и часто подвергается пересмотру, однако можно условно выделить несколько основных категорий:

  • Слабый, или Узкий ИИ (Narrow AI): Этот тип ИИ специализируется на выполнении конкретных задач, таких как распознавание лиц, игра в шахматы или фильтрация спама. Он превосходит людей в своей области, но не обладает общим интеллектом или самосознанием. Большинство существующих ИИ-систем относится к этой категории.
  • Сильный, или Общий ИИ (Artificial General Intelligence, AGI): AGI – это гипотетический тип ИИ, который обладает интеллектом, сравнимым с человеческим, что позволяет ему понимать, учиться и находить применение при решении широкого спектра задач. AGI на данный момент не существует.
  • Суперинтеллект (Superintelligence): Этот тип ИИ превосходит человеческий интеллект во всех аспектах, включая творчество, общее знание и навыки решения проблем. Суперинтеллект – пока лишь теоретическая концепция, но представляет собой серьезный предмет обсуждения в контексте потенциальных рисков, связанных с развитием ИИ.

Как видно, большая часть уточнений посвящена тому, какие виды приложений ИИ могут встречаться на практике или в перспективе.

Проблема определения искусственного интеллекта в понимании Тьюринга и других ранних исследователей заключается в том, что они не считали нужным концептуализировать понятие «думать», поскольку полагали этот процесс априорно понятным любому человеку. Суть знаменитого теста Тьюринга посредством «игры в имитацию» косвенно определяет ИИ как способность машины имитировать когнитивные способности человека не в полном их рассмотрении, а в некоторых отдельных аспектах.

В то время как Тьюринг рассматривал ИИ с философской точки зрения, М. Минский подошел к исследованиям интеллекта со стороны нейрофизиологии, пытаясь построить сначала действующую модель искусственного нейрона, а затем и искусственную нейронную сеть (нейросеть, ИНС). Первые эксперименты с ИНС на основе 40 искусственных нейронов показали их замечательные способности к обучению с подкреплением со стороны учителя-оператора, а способности к самообучению были определены как один из ключевых факторов «интеллекта». При этом ранние ИНС не были вычислительными машинами. Позже концепция искусственного нейрона была усовершенствована до математической модели перцептрона, призванной имитировать восприятие информации и раздражителей мозгом человека. Эта модель была реализована в составе первого в мире нейрокомпьютера.

Следует отметить, что создатель концепции перцептрона Ф. Розенблатт не рассматривал нейрокомпьютеры и нейросети как прототипы «мыслящих машин». Демонстрируя хорошие результаты в области закрепления реакций на раздражители и машинного обучения, ИНС не способны к обобщению и к формированию абстракций, что не позволяет считать их подлинно интеллектуальными агентами. Но они прекрасно работают в решении задач классификации, аппроксимации и прогнозирования, и это обуславливает их эффективность в распознавании образов, включая выделение образов из помех. Эта задача часто ассоциируется с ключевой способностью «слабого ИИ».

 

Вы можете дочитать этот и другие материалы сайта, оформив подписку.

Мы используем файлы «Cookie» и метрические системы для сбора и анализа информации о производительности и использовании сайта.
Нажимая кнопку «Принять» или продолжая пользоваться сайтом, вы соглашаетесь с политикой конфиденциальности персональных данных и обработкой файлов «Cookie».
При отключении файлов «Cookie» некоторые функции сайта могут быть недоступны.
Принять