Снится ли искусственному интеллекту мировое господство?

Об угрозах, которые несут научные и технические разработки в области искусственного интеллекта (ИИ), рассказывает президент Инжинирингового центра прототипирования «Кинетика» на базе университета МИСиС Владимир Пирожков.

12 обезьян

– В научной фантастике проблема описана тысячу раз, даже поджанр такой есть – «Восстание машин». Но вот человечество вплотную приблизилось к созданию искусственного интеллекта в реальности… и, по уверениям многих экспертов, оказалось совершенно не готово к возникающим вызовам. Гуманитарные и общественные исследования сильно отстают от технического прогресса. В чем мы допускаем стратегические ошибки?

– Разработка ИИ-систем финансируется намного щедрее, чем исследование сопряженных проблем безопасности. Кроме того, невозможно даже прикинуть масштаб происходящего, так как большинство компаний занимаются этим втайне от всех. И конечно, все они стремятся обогнать друг друга в этой гонке. Поэтому не тратят время на внятную оценку угроз достигнутых результатов.

Мы ответили США на создание DARPA (Управление перспективных исследовательских программ Минобороны США) созданием Российского Фонда перспективных исследований (ФПИ). Теперь мы строим технополис «Эра». Это тоже ответ на одну из составляющих DARPA. И вопрос состоит в том, что сможет предложить DARPA, а что – «Эра». Правда, DARPA существует с 1952 года, а ФПИ появился в 2012 году. Идет бесконечная модернизация технологических процессов.

– Это основные игроки-разработчики?

– Я бы отметил относительно низкую себестоимость таких исследований. В принципе, ими можно заниматься, сидя где-нибудь в кафе. По большому счету, и компания не нужна. Прорыв способен совершить гений-одиночка в половине стран на карте мира.

– Высокие технологии в области ИИ – удел одиночек?

– Основатель компаний Paypal, SpaceX, Tesla Илон Маск в августе 2015 года объявил о поддержке технологий противодействия искусственному интеллекту и вложил 7 миллионов долларов в исследования в этой области. Одна из знаменитых его цитат по данному вопросу звучит следующим образом: «Если машины запрограммированы на рекурсивное самоулучшение, их функции могут оказать на нас пагубное влияние. Скажем, если задачей машины является избавление от почтового спама, она может решить, что гораздо легче избавиться от людей». Причем этот знаменитый инженер и футуролог считает, что с прямой угрозой человечество столкнется не через сто или пятьдесят лет, а через десятилетие.

– Вряд ли контроль в данной сфере можно перепоручать корпорациям. Наверное, это государственная компетенция?

– При Бараке Обаме в США был принят закон о защите от инвазивных видов. То есть, видов, оказавшихся в среде без естественных врагов и быстро захватывающих новые территории. Это могут быть тараканы, а могут быть инопланетяне или ИИ.

– Но ведь угроза носит наднациональный характер. Делаются ли совместные шаги, чтобы обеспечить международный «контроль над рождаемостью» ИИ?

– Пока о совместной позиции речь не идет. Никто даже не заикается. Более того, если сейчас ввести жесткий контроль, например, в России, все сидящие в кафешках разработчики уедут в США. Наконец, гений-одиночка может появиться у нас, или в Индии, или в Бангладеш… А встречный, тройной (или в рамках Большой Двадцатки) договор о моратории риски не нивелирует.

Но пусть даже появится компетентный международный регулирующий орган, который возьмет под контроль все текущие разработки, это не остановит уволенного из контролируемой структуры амбициозного разработчика. Напомню, Стива Джобса, прежде чем он стал главой корпорации, выгоняли из Apple.

– В комиксах о супергероях часто присутствует такой тип злодея, как «Безумный ученый». Теперь он становятся главной угрозой?

– Опять же не обязательно. Создавать ИИ могут очень позитивно настроенные граждане, разъезжающие на экологически безопасных электромобилях. Но к процессу ничто не помешает подключиться лицам с предельно мрачными планами. Поэтому перспективы трудно предсказуемы.

– Иначе говоря, пока техническая мысль будет опережать развитие моральных принципов, угроза «восстания машин» актуальна?

– Еще Альберт Эйнштейн предупреждал, что все закончится очень плохо. Но его никто не слушал…

Заповедник гоблинов

– Может случиться так, что угроза надумана, просто вычитана из старых фантастических романов, и машины совершенно не угрожают нашему будущему?

– С древности человек постоянно совершенствовал используемые механизмы. Так, паровоз был на порядок «выносливее» лошадей, верблюдов или слонов.

А двигатель внутреннего сгорания оказался эффективнее парового двигателя. И народы, которые не осваивали новшества, уступали свое место под солнцем.

Таким образом, нелепо ожидать, что человечество не будет использовать то, что дает наука сегодня. И следующий естественный шаг – массовое применение новых биотехнологий. А это также вполне логичный, а значит – предсказуемый на всех этапах процесс.

Сначала человечество будет себя клонировать. То есть, тиражировать себе подобные модели «на запчасти» или для каких-то других целей. Далее пойдет тюнинг. Например, можно убрать уши и волосы, а стопу уменьшить и сделать так, чтобы сразу росла «подошва с каблуком». Дальше – больше – можно убрать нос, а глаза нагрузить дополнительной функцией дыхания.

Следующий же шаг – оптимизация. Иначе говоря, создание нового вида, как его ни назови: Homo Super или Человек 2.0.

– Перспектива без вариантов?

– Вероятно всего, все это произойдет. Человек 2.0 будет создан для выполнения тех функций, с которыми обычный человек плохо справляется. Эти особи будут обладать обязательными признаками живых существ: перерабатывать энергию, воспроизводить себе подобных, транспортировать себя, взаимодействовать – в том числе и с внешней средой, получать информацию из внешнего мира, обрабатывать ее и управлять ею и принимать решения.

И очень важно, что эти живые существа второго уровня далеко не обязательно должны быть похожи на людей или известных нам животных. Возможны самые разнообразные варианты реализации перечисленных первичных жизненных функций – хоть шесть ног.

В то же время новые создания окажутся лучше во всех отношениях, по всем параметрам жизненных функций, чем люди. Иначе, зачем их было создавать?

Например, мы, в рамках биологического вида, в какой-то момент умираем. Человек 2.0 избавится от такого несовершенства. Причем эти существа будут искусственно спроектированы и созданы, но не обязательно инженером процесса выступит человек.

– Разве человечество добровольно уступит право создавать потомков искусственному интеллекту?

– Вычислительная мощность компьютера, согласно закону Мура, удваивается каждые 18 месяцев. Мы помним огромные железные шкафы, потом железные ящики на каждом рабочем месте в офисах, теперь типичный компьютер помещается в ладони. Таким образом, ждать, когда «вычислительная мощность» человеческого разума и машины сравняется, осталось недолго. Соглашусь с Илоном Маском, что счет идет на десятилетия. Результат будет долго практически незаметен, но потом разрешение вопроса произойдет почти мгновенно.

То есть, уровень способностей практически по всем возможным характеристикам у «изделия» вскоре окажется на порядки выше, чем у человека. Логично, что ИИ постепенно примет в управление многие вопросы жизнеобеспечения человеческих конгломераций. И получение контроля над биосовершенствованием людей – лишь вопрос времени. Важно то, что принимать решение об этом и влиять на это решение человечество уже не будет.

– Можно ли говорить, что это ущербная модель развития человечества?

– Это уже будет модель развития не совсем человечества. Вспомните техносферу вокруг нас: столбы, телефоны, экскаваторы, поезда и другие привычные нам механизмы. Но в понимании ИИ техносфера должна выглядеть совершенно иначе. Привычный нам мир машина оптимизирует в нечто, для рядового человека трудновообразимое.

Новые существа более конкурентоспособны, чем человек, и займут вершину пищевой цепочки на нашей планете. В перспективе созданная ими инфраструктура будет недоступна для понимания и изменения человеком. И, соответственно, к ним перейдет право решать судьбу человечества. Homo Sapiens не будет ни самостоятелен, ни конкурентоспособен в этой среде.

Кто останется жить, сколько людей будут жить и как – теперь эти вопросы уже не будут зависеть от людей. Они не будут решаться в противостоянии и кооперации эволюционных живых существ нашей Земли, а будут решаться искусственной «внешней силой».

– Тогда мы, как биологический вид, заведомо проиграли?

– Насколько в развитии люди 2.0 будут выше, чем мы, на столько же порядков и риски для нас окажутся выше. И нужно понимать, что риски актуализируются, когда у сторон начинают расходиться цели. Иначе говоря, нам нужны общие с ИИ цели.

Но здесь проблема в том, что, с одной стороны, на каком-то этапе мы не сможем навязывать свои цели, а с другой – следовать чужим целям.

– С сегодняшней точки зрения цель человека 2.0 понятна? А цели «изделия» какому-то прогнозированию подлежат?

– Вполне может оказаться, что «изделию» наши прогнозы не понравятся, и оно предпочтет само искать себе другие цели. Таким образом, в обсуждаемой теме назрела масса вопросов, пока не имеющих ответов.

Например, как и можно ли в принципе поставить техническое задание ИИ? Часть экспертов предлагают выстраивать какие-то барьеры на перспективу, встраивать в ИИ «рубильник», которым машину всегда можно будет остановить. Но не спровоцируем ли мы тем самым машину на неподчинение?

– Интеллект, искусственный или человеческий, предпочитает опираться на знания. В частности, на одну из философских систем. Не могла бы выступить подобным «рубильником» заблаговременная популяризация среди разработчиков гуманистических философских принципов?

– Можно сколь угодно долго говорить о западной и восточной философских школах и сопутствующих путях совершенствования этических запретов, о роли государства и мирового правительства в вопросе контроля над наукой. Но вот был такой художник Ганс Руди Гигер, который нарисовал Чужих – тварей для знаменитого фильма. Этот парень – просто «больной на всю голову» – жил в маленьком благополучном и сонном швейцарском городке, но придумал Мир Чужих. И представьте психически нестабильного разработчика, который воплотит таких биомеханоидов уже не на картине, а в реальности.

Час Быка

– На каком расстоянии от точки невозврата мы сейчас находимся? И куда из текущей позиции все-таки следовало бы двигаться?

– Рубикон человечество еще не перешло, но благополучно к нему приближается.

Некоторое время назад мы с командой разработчиков работали над экипировкой для российской армии «Солдат будущего», которая является логическим развитием экипировки «Ратник». Мы работали потому, что нам нужно конкурировать с солдатом, «построенным» в США. Получается, что если кто-то из этических соображений решит такого солдата не создавать, первыми его построят соседи. Соответственно, идет бесконечная гонка, которая автоматически в какой-то момент приведет к созданию сверхоружия.

Похоже, и ИИ будет «заражен» идеей конкурентной борьбы, иерархическим инстинктом. Сначала конкурентом будет считаться ИИ другой страны, а потом, возможно, и все человечество.

– Жажда познания плюс конкурентная борьба... Но конкурентный или иерархический инстинкт, что в принципе одно и то же, проявляется даже раньше инстинкта продолжения рода. Дети уже в два-три года играют в игры и стремятся выигрывать в них. Получается, человечество должно избавиться от стремления конкурировать? Но без этого инстинкта виду тоже не выжить…

– Именно так, все построено на иерархическом инстинкте. Сейчас англосаксы пытаются навязать России и Китаю свою точку зрения. Так думаем мы. Они думают, например, что Россия пытается диктовать свои условия Прибалтике. Китай думает, что у него хотят отобрать острова. Япония думает, что Китай «наступает ей на хвост»…

– И у всех возникает желание использовать ИИ на своей стороне…

– Но получение в свои руки ИИ может быть только иллюзией. Он начнет самостоятельно мыслить и окажется на своей собственной стороне с собственными интересами. Это джин в бутылке.

Впрочем, считать, что ситуация безысходна, не следует. Человеческая раса регулярно оказывается на краю пропасти. Не обязательно после внедрения ИИ мы все вымрем. Наоборот, возможен вариант, когда наступит эра всеобщего бессмертия.

Беседовала Александра Григоренко

"Новый оборонный заказ. Стратегии" 
2018, август   

Комментариев еще нет.

Оставить комментарий

Вы должны войти Авторизованы чтобы оставить комментарий.

Партнеры