Антониу Гуттериш считает, что крупные технологические компании должны воздержаться от использования бизнес-моделей, которые могут нарушить права человека. В лице генсека ООН призывает принять меры для обеспечения безопасности и соблюдения этики приложениями ИИ, в том числе путем создания международной организации, предусматривающей регулирование отрасли по аналогии с Международным агентством по атомной энергии (МАГАТЭ).
Стремительно развивающиеся технологии генеративного ИИ вызывают озабоченность мировой общественности на фоне роста популярности таких проектов как ChatGPT. По мнению генсека Организации Объединенных Наций, бесконтрольное использование генеративного ИИ может представлять угрозу, поскольку может применяться для создания и распространения правдоподобной дезинформации.
На фоне растущей озабоченности вопросом Гуттериш объявил о планах по запуску к концу года работы по созданию консультативного органа по ИИ высокого уровня, который заниматься постоянным мониторингом механизмов управления ИИ и предлагать рекомендации о том, как они могут применяться, чтобы способствовать «обеспечению защиты прав человека, верховенства закона и общего блага».
Генеральный секретарь ООН также отметил, что, по его мнению, наиболее оптимальной моделью для такого органа может стать механизм МАГАТЭ, где осуществление мониторинга атомной отрасли представляет собой важный инструмент в обеспечении безопасности ядерных объектов, предусматривает регулирование применения технологий исключительно в мирных целях, а также предполагает отслеживание возможных нарушений Договора о нераспространении ядерного оружия.
Гуттериш заявил, что проблема поднимается и самими разработчиками систем, которые выступают с предостережениями об опасности ИИ, и что создание регулирующего механизма было бы выгодно всем сторонам. Его позицию разделяют и в компании OpenAI – создателе ChatGPT. Ранее представители компании заявили, что создание органа, аналогичного МАГАТЭ, позволило бы вводить ограничения на развертывание, проверять соблюдение стандартов безопасности и отслеживать использование вычислительных мощностей, что способствовало бы ответственному применению технологии.
«Мои худшие опасения заключаются в том, что мы — отрасль, технологии, индустрия — наносим значительный вред миру»
Сэм Альтман, генеральный директор американской компании OpenAI
Реакция ООН – не первая инициатива, подразумевающая введение рамок и осуществление контроля над технологиями генеративного ИИ. Однако ранее механизмы мониторинга и контроля предлагались на национальном и региональном уровнях. Например, в этом году Европарламент одобрил предложенный еще в 2021 году набор правил для искусственного интеллекта. Правила классифицируют угрозы, исходящие от технологий ИИ, по степени риска и предполагают введение соответствующих мер по контролю.

Угрозы и риски со стороны технологий ИИ в проекте ЕС
Первый набор правил, предложенный ЕС, предполагает запрет на использование распознавания лиц компьютерными сетями, в том числе ИИ, без участия людей. Правила также обязывают компании обеспечивать прозрачность нейросетей, то есть генерируемый ИИ контент должен размечаться компаниями, а также компании будут обязаны предотвращать использование данных в нарушение авторских прав или конфиденциальности. Ожидается, что в будущем ограничительных мер будет становиться больше.
Источник – ООН