В Совете безопасности ООН впервые обсудили возможности и риски для международной безопасности, связанные с распространением технологий искусственного интеллекта (ИИ). Заседание было инициировано Великобританией как действующим председателем Совбеза. Во встрече и обсуждении принял участие и генеральный секретарь ООН Антониу Гуттериш, который выразил свое мнение относительно распространения технологий.
Генсек ООН обозначил как возможности, так и риски, связанные с распространением высоких технологий. Гуттериш заявил, что никто не ожидал, что «искусственный интеллект окажет столь сильное влияние на устойчивое развитие, сферу труда и социальный порядок». По его словам, в текущий момент времени человечество проходит через поворотный момент истории, когда «скорость и разнообразие новых технологий во всех их формах беспрецедентны», что несет как определенные возможности, так и риски.
Гуттериш подчеркивает, что даже сами разработчики, задействованные в разработке и развитии ИИ, не могут точно предсказать, к чему приведет прогресс в отрасли. Генсек считает, что с одной стороны ИИ может значительно ускорить глобальное развитие, путем его применения для широкого спектра различных задач – от борьбы с изменением климата до медицинских исследований и мониторинга соблюдения прав человека. С другой же - Гуттериш считает, что ИИ может применяться и во вред. Так, генеральный секретарь заявил, что ИИ может «укреплять предубеждения», «способствовать росту дискриминации», и применяться злонамеренно с целью контроля над обществом или осуществления преступной деятельности.
Глава организации поддержал призывы к созданию нового органа в структуре ООН, в зону ответственности которого вошел бы контроль над ИИ. По словам Гуттериша, основная цель этого органа сводилась бы к поддержке стран в получении максимальной пользы от ИИ, устранении существующих и будущих угроз, а также установлении и реализации выработанных на международном уровне механизмов мониторинга и контроля. Он также добавил, что такой орган мог бы функционировать по аналогии, например, с Международным агентством по атомной энергии (МАГАТЭ), Международной организацией гражданской авиации (ИКАО) или Международной группой экспертов по изменению климата (МГЭИК).
Помимо генерального секретаря свои позиции и планы по теме озвучили и другие участники встречи. Так, инициатор заседания, представитель Великобритании Джеймс Клеверли согласился с тем, что необходимо «срочно сформировать государственное управление трансформационными технологиями», к которым относится и ИИ. Глава МИД Великобритании озвучил четыре ключевых принципа, лежащих в основе позиции Лондона по вопросу:
- Открытость ИИ, который должен поддерживать свободу и демократию;
- Ответственность ИИ, что предполагает приверженность верховенству закона и правам человека;
- Безопасность ИИ и предсказуемость алгоритмов, что включает в себя защиту прав собственности, конфиденциальности и национальной безопасности;
- Доверие общественности к ИИ и защищенность его критически важных систем.
Британский представитель подчеркнул, что вопросы реализации озвученных принципов будут обсуждаться на грядущем саммите, посвященном безопасности и регулированию технологии искусственного интеллекта, который запланирован к проведению осенью текущего года в Великобритании.
Российскую позицию на заседании представил заместитель постпреда при ООН Дмитрий Полянский. Говоря о новой профильной организации в рамках ООН, Полянский подчеркнул, что дискуссии по теме уже ведутся в профильных кругах и их дублирование на уровне Совбеза выглядит «контрпродуктивно».
В части выступления, посвященной непосредственно угрозам и рискам, сопряженным с ИИ, он заявил, что, обсуждая угрозы, исходящие от ИИ, стоит определиться с их природой и получить соответствующие заключения от экспертного сообщества. Российский представитель указал на то, что сам по себе искусственный интеллект не выступает генератором вызовов и угроз - основная проблема состоит в его недобросовестном использовании, в том числе и политически мотивированном.
«Западные страны во главе с США подрывают доверие к собственным технологическим решениям и реализующим их компаниям из IT-индустрии. Регулярно вскрываются факты вмешательства американских спецслужб в деятельность крупнейших корпораций, манипуляции с алгоритмами контента, слежки за пользователями, в том числе и с помощью заводских закладок в аппаратных средствах и программном обеспечении».
Заместитель постоянного представителя при ООН Дмитрий Полянский
Китайский постоянный представитель Чжан Цзюнь поддержал создание новой структуры в рамках ООН, однако подчеркнул, что такая инициатива будет иметь смысл только при условии ее «полной инклюзивности и открытости». Однако в первую очередь он призвал ведущие технологические предприятия определить круг ответственных сторон и создать надежный механизм подотчетности с целью тщательного мониторинга и контроля развития технологий ИИ.
Также от Китая в заседании принял участие профессор Института автоматизации при Китайской академии наук Цзэн И. Он заявил, что несмотря на то, что модели ИИ постоянно совершенствуются, не стоит рассматривать их как что-то приближенное к человеку, они все еще не имеют человеческого сознания и «не являются по-настоящему разумными». В связи с этим он подчеркнул, что не стоит рассматривать ИИ как инструмент, «который можно использовать для помощи в принятии решений», в том числе и потому, что в перспективе «учитывая методы взаимодействия человечества с окружающей средой, искусственному интеллекту будет сложно найти причины для защиты людей».
США на заседании представлял и. о. заместителя постпреда США при ООН Джеффри Де Лорентис. Он призвал всех «работать вместе, чтобы гарантировать, что ИИ и другие появляющиеся технологии не будут использоваться в первую очередь как оружие или инструменты репрессий, а будут скорее инструментами для защиты человеческого достоинства и помощи нам в воплощении в жизнь наших лучших устремлений».
Он также заявил, что в данный момент США работает с «широкой группой заинтересованных сторон» нал выявлением и устранением связанных с ИИ рисков для прав человека, которые угрожают миру и безопасности. Позиция США на заседании свелась к тому, что «ни одно государство-член не должно использовать ИИ для цензуры, ограничения свобод, подавления или лишения прав людей».
Источник: Совбез ООН