Новый оборонный заказ. Стратегии
Новый оборонный заказ. Стратегии
РУС |  ENG
Новый оборонный заказ. Стратегии

Технологии ИИ могут увеличить риск разработки биологического оружия

Американская компания OpenAI заявила, что следующее поколение ее ИИ-моделей может существенно повысить риск разработки биологического оружия. В компании ожидают, что некоторые модели ИИ в ближайшее время достигнут самого высокого уровня риска, и усиливают меры безопасности.

 

 

Как сообщили представители компании в комментарии для Axios, предстоящие модели вскоре могут попасть в категорию высокого риска в рамках внутренней системы оценки угроз. В OpenAI обеспокоены тем, что без усиления контроля некоторые модели ИИ вскоре смогут создать ситуацию «повышения уровня новичков» — то есть предоставят возможность людям с ограниченными научными знаниями создавать опасное оружие.

«Мы пока не живем в мире, где модели способны к созданию совершенно новых, ранее неизвестных биологических угроз. Нас скорее тревожит возможность воспроизводства уже известных вещей, которые и без того хорошо изучены экспертами», — заявил руководитель отдела систем безопасности OpenAI Йоханнес Хайдеке.

Ситуация, которая потенциально может возникнуть, фактически представляет собой обоюдоострый меч. В компании указывают, что передовые возможности ИИ и методы их применения могут использоваться как для достижения прорывных результатов, например, в медицине, так и потенциально применяться во вред, в том числе в качестве биологического оружия.

OpenAI — не единственная компания, обеспокоенная риском злоупотреблений своими ИИ-моделями для потенциальной разработки биологического оружия. Компания Anthropic, например, недавно выпустила свою самую продвинутую модель — Claude Opus 4, снабдив ее более строгими мерами безопасности, чем у всех предыдущих. Она была отнесена к третьему уровню безопасности ИИ (AI Safety Level 3, ASL-3). Эта система частично основана на американской классификации уровней биологической безопасности (BSL). Ранее все модели Anthropic классифицировались как ASL-2.

Модели, отнесенные к третьему уровню, обладают значительно более опасными возможностями и могут, например, содействовать разработке оружия или автоматизировать ИИ-исследования. При этом даже ранние версии модели Claude 4 соглашались выполнять опасные задачи — например, не отказывали в помощи для планирования терактов. Однако, как утверждает компания, эта проблема была в значительной степени устранена после того, как в обучающий набор данных вернули ранее случайно пропущенную информацию.

На фоне растущей обеспокоенности рисками, связанными с применением новых моделей, в OpenAI сообщили, что в следующем месяце проведут мероприятие, на которое будут приглашены представители некоммерческих организаций и государственных исследовательских структур для обсуждения будущих возможностей и рисков, связанных с ИИ.

К тому же руководитель отдела политики OpenAI Крис Лехан заявил, что компания также стремится расширить сотрудничество с национальными лабораториями США и с государственными структурами.

«Мы собираемся изучить новые направления работы, где могли бы использовать саму технологию для эффективной борьбы с теми, кто, возможно, попытается использовать ее во вред», — пояснил Лехан.

Обсуждение технологий ИИ в биологических разработках стало важной частью экспертного семинара, проведенного 29 апреля Междисциплинарным центром по глобальным проблемам биобезопасности СПбГУ и Отделом военно-экономических исследований безопасности ЦМБ ИМЭМО РАН.

В ходе дискуссии одни специалисты сошлись во мнении, что ИИ выступает одним из ключевых инструментов, как ускоряющих научное развитие в большинстве областей, так и создающих серьезные вызовы для международной безопасности. Другие же говорили об ограниченных способностях этой технологии, которая пока что может лишь воспроизводить или обрабатывать информацию, произведенную ранее человеком. В то же время эксперты согласились, что ИИ существенно ускоряет реализацию множества рутинных технических задач, на которые ранее уходило большое количество человекочасов, а теперь требуется существенно меньшее время.

Источники – Axios, Fortune

Мы используем файлы «Cookie» и метрические системы для сбора и анализа информации о производительности и использовании сайта.
Нажимая кнопку «Принять» или продолжая пользоваться сайтом, вы соглашаетесь с политикой конфиденциальности персональных данных и обработкой файлов «Cookie».
При отключении файлов «Cookie» некоторые функции сайта могут быть недоступны.
Принять