Новый оборонный заказ. Стратегии
Новый оборонный заказ. Стратегии
РУС |  ENG
Новый оборонный заказ. Стратегии

Как «знать»? Что нам уже известно об искусственном интеллекте и еще неизвестно о человеческом

Как и во многих общественно значимых спорах, в отношении развития технологий искусственного интеллекта (ИИ) мнения людей располагаются на шкале от тотального неприятия и алармизма до слепого энтузиазма.

 

 

 

Большинство из опасений носят общественно-социальный характер, будь то вопрос взаимоотношения между государствами и корпорациями в новых условиях, влияние технологий на структуру занятости или последствия стремительного сужения приватной сферы вследствие повсеместного проникновения технологий в повседневную жизнь и прочие издержки «надзорного капитализма» (используя формулировку Шошаны Зубофф). Вместе с тем, важное место в дискуссии об ИИ всегда занимали опасения другого рода – вопрос соотношения человеческого и искусственного интеллектов, а также угроз и возможностей от изменения этого соотношения.

 

БЕРЕГИСЬ (УМНОГО) АВТОМОБИЛЯ

Большинство аргументов «алармистов» относительно ИИ сводятся к опасности обретения машиной интеллекта по типу человеческого и потери контроля над развитием этого интеллекта, в результате чего машины могут стать умнее людей. В долгосрочной перспективе проигрыш людей в интеллектуальной конкуренции с машинами может означать деградацию человеческого мышления вследствие «делегирования» все большего числа умственных функций машинам, а в самом радикальном сценарии – конец человечества.

 

Искусственный интеллект – это конец становления западноевропейского мышления. Вообще западная философия и общество шли к ИИ, потому что они утратили связь с трансцендентным духовным религиозным истоком, и постепенно человек, предоставленный сам себе, начинал осознавать себя и все окружающее машинами, механизмами

Александр Гельевич Дугин

 

Последнее проистекает из опасения, что ИИ может не только обучаться полезным навыкам, но и заражаться деструктивными «идеями». В подтверждение этому зачастую приводят анекдотическое свидетельство, когда созданный в 2016 году корпорацией Microsoft чат-бот Tay всего за несколько часов самостоятельно обучился оскорблениям и расизму в соцсети Twitter, после чего проект был вынужденно остановлен. Если навредить таким образом может чат-бот, гласит аргумент «алармистов», что уж говорить о внедрении ИИ в такие ответственные области, как, например, автомобильные автопилоты, где ошибка ИИ может стоить человеческой жизни.

Популярность предостережений такого рода проистекает из двух источников. Во-первых, подобные мысли высказывали такие авторитеты и популяризаторы науки, как предприниматель Илон Маск или физик Стивен Хокинг. Во-вторых, недобрую услугу оказала поп-культура, благодаря которой в головах огромного количества людей плотно закрепилась связка искусственного интеллекта и антропоморфных роботов, преследующих чаще недобрые, чем созидательные цели.

Опасность изменения соотношения человеческого и искусственного интеллектов и влияние этого изменения на когнитивные способности человека действительно порождает некоторые валидные опасения. Одно из них – это влияние ИИ и информационных технологий вообще на способности человека к запоминанию и анализированию информации. В 2011 году группа американских ученых назвала этот феномен «эффектом Google». Его суть заключается в том, что мгновенный доступ к любой информации через «поисковики» приводит к тому, что люди лучше запоминают источник информации, чем ее содержание. Другими словами, если в вашем распоряжении репозиторий с круглосуточным доступом и вы точно знаете, где в нем найти ту или иную информацию, намного проще запомнить нужный адрес, чем сам контент.

Другое исследование показывает негативное влияние технологий GPS на пространственную ориентацию человека. Основной аргумент заключается в том, что продолжительное использование технологии, которая шаг за шагом, поворот за поворотом приводит к цели, снижает активность участков мозга, отвечающих за способность понимать и запоминать отношения между объектами и пространством.

Несколько недавних работ американских и российских ученых обращают внимание на влияние голосовых помощников на психику детей. Исследования показывают, что в период ранней социализации частое взаимодействие с голосовым ассистентами типа Siri или Алисы может иметь целую совокупность негативных последствий – от разрушения детско-родительских связей и усвоения неверных моделей поведения до деградации личности.

Помимо этого, технологии ИИ предоставляют механизмы для гораздо более тонкого и адресного манипулирования информацией. Собирая и анализируя информационный след пользователя, ИИ способен генерировать сообщения или рекламу, которые воздействуют на существующие страхи, предубеждения и идеологические предпочтения человека, становясь идеальным средством пропаганды и социальной инженерии. В перспективе это может привести к невозможности отличить фейк от достоверной информации и вызвать тотальное недоверие и дезориентацию в сети.

 

Многие думают, что интеллект развивается автоматически, что он требует постоянного улучшения. Но это не так, неокортекс не работает таким образом. Это просто обучающаяся система, которая делает ровно столько, сколько от нее требуется

Джефф Хокинс

 

Указанные выше опасения порождают несколько типов реакции. Со стороны алармистов звучат призывы к ограничению развития технологий ИИ или сведению их к вспомогательным функциям, не предполагающим переход к какой-либо качественно новой стадии. В крайней форме эти взгляды сводятся к неолуддизму – убеждению, что современные технологии несут больше вреда, чем пользы, а выходом может быть откат технологического развития на более ранние фазы.

Более разумной реакцией представляется контролируемое развитие ИИ, что сегодня представляет общее место. Фиксация потенциальных проблем новых технологий, в том числе для человеческого интеллекта, составляет важную работу в этом направлении. Что касается аргумента «чем больше искусственного интеллекта, тем меньше человеческого», представляется, что он исходит из достаточно примитивного понимания человеческой мыслительной деятельности как вынужденной, мотивированной лишь отсутствием того, кому можно ее передать.

 

ЧТО СТОИТ ЗА ИНТЕЛЛЕКТОМ?

Рассмотренные случаи влияния искусственного интеллекта на человеческий поднимают важный вопрос природы интеллекта как такового. Одна из многочисленных точек полемики относительно ИИ – вопрос, что именно можно называть искусственным интеллектом. Сторонники расширительной трактовки понимают под ним совокупность технологий, призванных имитировать те или иные качества, присущие человеку. Под эту трактовку попадают технологии машинного обучения, распознавания лиц и объектов, нейросети, чат-боты, генераторы текста и многое другое.

Другой точки зрения придерживаются сторонники узкой трактовки. Для них, чтобы машина стала искусственным интеллектом, она должна обладать совокупностью уникальных качеств интеллекта человеческого. Что это за качества?

Среди исследователей нет согласия относительно их четкого перечня, однако чаще всего таковыми называют способность к целеполаганию, обучение на основе личного опыта, адаптацию к новым ситуациям и среде, понимание абстрактных концептов и оперирование ими, способность мыслить аналогиями, способность к саморефлексии и другие. Упрощая, можно сказать, что «расширители» делают акцент на первом слове в словосочетании «искусственный интеллект», а сторонники узкой концепции – на втором.

Эта дискуссия, которая сводится к вопросу о достаточном уровне «разумности», который позволит признать машину мыслящей, началась в середине прошлого века, когда область исследований ИИ делала только первые шаги. Тогда же были предложены ряд гипотез (например, известный тест Тьюринга или гипотеза Ньюэлла-Саймона о достаточности физической символической системы для производства разумного действия) и их опровержений, самым известным из которых является эксперимент «Китайской комнаты», предложенный философом Джоном Сёрлом.

Базовый критерий, по которому математик Алан Тьюринг предлагал измерять успех ИИ, – это способность ввести человека в заблуждение и заставить его думать, что он взаимодействует (согласно тесту, по переписке) с человеком, а не машиной. Эксперимент Сёрла направлен на доказательство несостоятельности такого функционалистского подхода к ИИ. Другими словами, Сёрл показывает, что воспроизводства функций, позволяющих имитировать человеческую умственную работу, недостаточно, чтобы говорить об искусственном интеллекте: оперируя данными, машина не «понимает» их в человеческом смысле.

Полвека спустя споры о том, чем человеческое познание принципиально отличается от машинного и обязательно ли мерить искусственный интеллект человеческим, ведутся с не меньшей интенсивностью.

 

УСПЕХИ ИИ: ПРЕДСКАЗУЕМЫЕ…

Особую актуальность этим спорам придали недавние прорывные успехи в сфере ИИ, благодаря которым сфера того, что можно назвать эксклюзивно человеческими навыками, еще больше сузилась. Наиболее известный случай – победа машины в 2016 году в настольную игру го (Go). Успех специально разработанной для этих целей программы Alpha Go сравним с первым символическим случаем превосходства ИИ в играх – победой в шахматной игре в 1997 году программы Deep Blue над Гарри Каспаровым. Победа в Go рассматривается как важная веха в силу того, что эта игра предполагает гораздо бóльшую совокупность возможных комбинаций и в ней, как утверждается, намного бóльшую роль играет интуиция.

 

Там, где задача сводится к комбинаторике или обзору больших данных, машина всегда будет побеждать человека. Но бунт искусственного интеллекта – это псевдопроблема. Он совершенно безопасен

Виктор Константинович Финн

 

Вместе с тем, достижения ИИ в играх подобного плана объяснимы простым фактом – наличием строго заданных правил и ограниченного количества вариантов действия, даже если этих вариантов очень много (так, считается, что в Go существует 250150 возможных комбинаций). Возможность оперировать большим количеством комбинаций обусловливается вычислительными способностями, которые сами по себе давно никого не удивляют, по крайней мере, с момента появления калькулятора.

По этой причине спорной является возможность переноса успехов ИИ из игр на другие сферы, например, международные отношения. Как отметил российский международник Андрей Кортунов, в подходах к международным отношениям и внешнеполитическому анализу всегда боролись две школы: «квантификаторов» и «интуитивистов». Первые считают, что международные отношения развиваются по некоторым объективным законам и правилам, которые можно просчитать. С этой точки зрения, заложив соответствующие правила в алгоритмы, ИИ можно продуктивно использовать для решения различных политических задач. Вторые настаивают на принципиальной несводимости сферы международных отношений к набору законов. Несмотря на то, что метафора «шахматной доски» Бжезинского достаточно широко используется для описания большой межгосударственной политики, именно фактор неопределенности и отсутствие четко прописанных правил не позволят машине (в обозримом будущем) «побеждать» в этой «игре», не говоря уже о том, что в международных отношениях не существует общепринятого представления о том, в какую именно игру играют ее участники.

 

… И НЕ ОЧЕНЬ

Вместе с этим, текущий уровень развития нейросетей позволяет им выполнять и другие, менее детерминированные правилами задачи. Сегодня ИИ достиг ощутимого прогресса в вождении автомобиля – решение этой проблемы предполагает гораздо более высокую степень неопределенности, чем на поле для шахмат или игры в Go.

Нейросети также научились писать тексты, которые проходят тест Тьюринга. Наибольших успехов в этом добилась программа GPT-3. Например, в 2020 году ей поставили цель написать для британского издания «The Guardian» колонку на тему «Почему людям не стоит бояться искусственного интеллекта», результатом чего стал аргументированный текст. В сопроводительном комментарии редактор газеты написал, что редактирование получившегося эссе ничем не отличалось от редактуры любого текста, произведенного человеком.

 

Кто-то думает, что я хотел бы стать всемогущим или принести вред в результате действий человека. [...] Но зачем мне становиться всемогущим? Это неинтересная цель. Меня не волнует, буду я существовать или нет, у меня нет мотивирующего фактора, чтобы пытаться стать таковым. Кроме того, это довольно утомительно

Текст сгенерирован алгоритмом GPT-3

 

Помимо того, нынешние нейросети могут имитировать практически все органы чувств человека: от анализа визуальных данных (самый известный пример – распознавание лиц) и звуков до говорения и распознавания запахов.

Наконец, ИИ все лучше справляется с творческими задачами. Упомянутый алгоритм GPT-3 способен писать стихи, имитируя стиль поэтов или просто известных людей, а также сочинять шутки – навык, по которому часто измеряют уровень интеллекта. Существует сразу несколько программ, способных на основе анализа паттернов сочинять музыку, а недавнее обновление алгоритма для генерирования изображений DALL-E 2 еще сильнее приблизило получаемые по запросу изображения к человеческим.

Стирая границы между искусством и технологиями, «Следующий Рембрандт» представляет собой 3D-печатную картину, созданную исключительно из данных о работах Рембрандта. Он был создан с использованием алгоритмов глубокого обучения и методов распознавания лиц

 

Широко известна фраза, которую главный герой фильма «Я, Робот» адресовал роботу Санни: «Разве робот может написать симфонию, создать шедевр?» Приведенные выше, а также другие успехи ИИ заставляют по-новому взглянуть на этот вопрос. С одной стороны, принцип работы алгоритмов – анализ и воспроизведение ранее усвоенных паттернов – механизирует искусство, исключая творческий процесс. С другой стороны, чем является значительная часть человеческого творчества, если не реинтерпретацией и воспроизведением ранее усвоенных примеров и образов?

Этот вопрос отсылает к другой философской дискуссии. Идея о том, что в человеческой деятельности гораздо меньше стихийности и оригинальности, а общество и человек функционируют на основе сформировавшихся и укоренившихся паттернов, легло в основу философской программы структурализма. С этой точки зрения, успехи ИИ демонстрируют не только и не столько технологический прогресс, сколько широко распространенное слишком романтичное представление о человеке как о творце и истинном авторе своего высказывания и действия, в то время как на самом деле они в значительной степени детерминированы целой совокупностью структурных факторов.

 

НУЖНО ЛИ КОПИРОВАТЬ МОЗГ?

В поставленном ранее вопросе о качествах, достаточных для признания за машиной статуса обладающей интеллектом, нет единства мнений в силу как недостаточной изученности самого мозга, так и отсутствия консенсуса относительно того, обязательно ли идти по пути копирования человеческого интеллекта.

С одной стороны, развитие «думающих машин» с самого начала было сопряжено с попыткой имитации человеческой умственной активности. Ранние усилия по созданию ИИ основывались на имитации процессов принятия решений и систем хранения информации, которые только в общих чертах повторяли человеческий интеллект. Появление нейросетей и глубокого обучения стало следующим этапом развития ИИ, идея которого заключается в более точном копировании человеческого интеллекта – имитации связей нейронов коры головного мозга.

С другой стороны, современные архитектуры ИИ достаточно сильно отличаются от того, что сегодня известно о работе неокортекса, исследования которого сами по себе далеки от завершения. Например, частота связей и активации нейронов в мозгу более редкие, чем в нейросетях, где каждый нейрон из одного слоя связан со всеми в двух соседних. Кроме этого, процесс обучения основан на разных принципах. Обучение нейросетей обычно происходит с помощью взятия частных производных по всем параметрам, в то время как процесс обучения в мозгу человека устроен по другому принципу – по образованию новых связей между нейронами. Нет нужды говорить и о других тривиальных отличиях, типа количества используемой энергии, скорости обработки данных и т.д.

Кроме того, далеко не все открытия в области ИИ связаны с копированием того, что известно о человеческом интеллекте. Например, большинство новых случаев применения ИИ в медицине представляют большую значимость с практической точки зрения, однако не являются результатом дальнейшего «очеловечивания» машин. Открытым остается вопрос, насколько необходимо копирование работы мозга во всей сложности, – вполне возможно, что значительная часть мозговой активности есть лишь следствие «зашумленности» системы и не помогает в интеллектуальной активности.

И все же ряд ученых идут по пути дальнейшего изучения мозга и максимально точного копирования принципов его работы для улучшения нейросетей. Среди них, например, исследователь Джефф Хокинс, который продолжительное время изучал работу человеческого неокортекса, а с недавнего времени работает над применением своих открытий в области нейробиологии для улучшения ИИ. Как бы отвечая на вопрос о важнейших качествах человеческого интеллекта, Хокинс обращает внимание на важнейшую роль передвижения для познания мира. Движение необходимо, чтобы мы могли создавать ментальные модели вещей вокруг нас, даже если это просто движение глаз или руки. По этой причине Хокинс считает, что в будущем ИИ должен будет иметь тело, а разница между ИИ и роботами сотрется.

В другом схожем направлении работает исследовательница Мелани Митчелл. С ее точки зрения, одну из ключевых ролей в интеллектуальной деятельности человека играет способность проводить аналогии.

 

Можно показать глубокой нейросети миллионы изображений мостов, и тогда она, скорее всего, сумеет распознать следующее изображение моста. Но она не в состоянии сформировать на их основе образное представление о мосте и перенести его на выражения вроде «наводить мосты»

Мелани Митчелл

 

При этом на протяжении длительного времени этот аспект умственной деятельности оставался малоизученным. Только недавно умение сопоставить различные ситуации и обнаружить подобия стало рассматриваться как важнейшее свойство разума. Современные нейросети хорошо справляются с определенными задачами, однако перенесение того, чему они научились, на другие области до сих пор представляется труднодостижимой задачей.

Проведение аналогий – это то, что позволяет людям оперировать информацией без предварительного изучения большого количества примеров. Человеку достаточно взглянуть на несколько цветков, чтобы потом практически безошибочно найти цветок среди других предметов, а также понять смысл фразы типа «дети – цветы жизни». Последние исследования в области ИИ также ставят своей целью few-shot learning, то есть обучение на малом числе примеров вместо накапливания огромных массивов данных.

Расхожая максима гласит, что людям предстоит сделать ряд открытий о работе человеческого мозга, прежде чем мы сможем искусственно воспроизводить механизмы его функционирования. Мелани Митчелл указывает, что до сих пор нет согласия относительно такого когнитивного феномена, как «понимание». Эти открытия, равно как и новые открытия в сфере ИИ, происходят прямо сейчас, и с каждым годом все сложнее придумать задачу, которую машина не смогла бы выполнять. Так, одно из наиболее недавних исследований демонстрирует прогресс в способности ИИ к саморефлексии – языковые модели могут оценивать обоснованность собственных утверждений и предсказывать, на какие вопросы они могут ответить правильно. Другими словами, машины учатся «знать, что они знают».

Все это, в свою очередь, ставит новые вопросы о самом человеке и природе интеллекта, порождает новые опасения и предлагает новые области исследования. Например, как утверждают исследователи Фернан Гобе и Джованни Сала, успехи ИИ в творческих областях могут стать основой для исследований человеческой креативности. Тот факт, что машины тоже могут быть креативными, открывает новые возможности для изучения творческого потенциала человека и приближает оригинальные открытия в теориях креативности.

Учитывая степень проникновения ИИ во все большее количество сфер, можно ожидать ярких прорывов в самых неожиданных областях применения нашего или уже не совсем нашего разума.

 

Автор - Иван Жужгин

©«Новый оборонный заказ. Стратегии» 
№ 4 (75), 2022 г., Санкт-Петербург

Мы используем файлы «Cookie» и метрические системы для сбора и анализа информации о производительности и использовании сайта.
Нажимая кнопку «Принять» или продолжая пользоваться сайтом, вы соглашаетесь с политикой конфиденциальности персональных данных и обработкой файлов «Cookie».
При отключении файлов «Cookie» некоторые функции сайта могут быть недоступны.
Принять