Можно ли избежать цифрового апокалипсиса?
Сэм Харрис
Нейробиолог; соучредитель и руководитель Проекта «Разум»
[97]; автор книги «Пробуждение» (Waking Up)
То, что мы когда-нибудь построим машины, которые будут обладать сверхчеловеческим интеллектом, выглядит все более вероятным. Нам нужно только продолжать производить более мощные компьютеры, что мы, несомненно, будем делать, если только сами себя не уничтожим или не погибнем как-то иначе. Мы уже знаем, что обычная материя может выработать универсальный интеллект — способность узнавать новые понятия и использовать их в незнакомом контексте, потому что 1200 см³ соленой кашицы внутри нашей головы смогли это сделать. Нет причин полагать, что достаточно сложный цифровой компьютер не сумеет того же самого.
Часто говорят, что цель на ближайшую перспективу — построить машину с человеческим уровнем интеллекта. Но, если мы не будем намеренно моделировать человеческий мозг — со всеми его ограничениями, — цель получается ложной. Компьютер, на котором я пишу эти слова, уже обладает сверхчеловеческими возможностями в плане памяти и вычислений. У него также есть потенциальный доступ к большей части информации нашего мира. Если мы не примем каких-то чрезвычайных мер, чтобы его стреножить, любой будущий универсальный искусственный интеллект (УИИ) превзойдет человека в выполнении любой задачи, для которой последний изначально считается источником интеллекта. Обязательно ли у такой машины будет сознание — это открытый вопрос. Но, сознательный или нет, УИИ вполне способен выработать для себя цели, несовместимые с нашими. Насколько неожиданным и губительным может оказаться то, что наши пути разойдутся, сейчас является предметом живейшего обсуждения.
Один способ рассмотреть вероятный риск — представить, что бы произошло, если б мы достигли цели и построили УИИ со сверхчеловеческими возможностями, который вел бы себя именно так, так мы предполагаем. Такая машина быстро избавила бы нас от необходимости выполнять физическую работу и даже большую часть утомительной интеллектуальной работы. Что за этим последовало бы при нашем нынешнем политическом строе? Не существует экономического закона, гарантирующего, что люди найдут работу при наличии всевозможных технологических достижений. Как только мы построим идеальное трудосберегающее устройство, стоимость производства новых его копий приблизится к стоимости сырья. При отсутствии желания немедленно поставить этот капитал на службу человечеству некоторые из нас невообразимо разбогатеют, а всем остальным останется беспрепятственно умереть от голода. Даже в присутствии совершенно безобидного УИИ мы можем обнаружить, что скатываемся в первобытное состояние под присмотром дронов.
А что сделали бы русские или китайцы, если б узнали, что некая компания в Кремниевой долине почти создала сверхразумный УИИ? Эта машина по определению сможет вести военные действия — наземные и кибернетические — беспрецедентных масштабов. Как поведут себя наши противники, обнаружив, что мы на грани беспрецедентного перераспределения сил? Обычные слухи по поводу УИИ легко введут наш вид в состояние берсерка.
Хаос может быть вполне вероятным результатом даже при самом оптимистичном сценарии, при котором УИИ останется совершенно послушным человеку, — признание этого обстоятельства действует отрезвляюще. Но мы, конечно, не имеем права исходить только из наиболее оптимистичного сценария. В действительности проблема контроля, решив которую мы гарантировали бы послушание УИИ, выглядит довольно сложной.
Представьте, например, что вы построили компьютер, который не умнее обычной группы исследователей из Стэнфорда или Массачусетского технологического института, но поскольку он функционирует в цифровых масштабах времени, то работает в миллион раз быстрее, чем разумы, которые его создали. Дадим ему недельку погудеть, и он проделает работу, эквивалентную 20 000 лет интеллектуальной деятельности человека. Каковы шансы, что такая сущность будет подчиняться нашим указаниям? И как можем мы уверенно прогнозировать мысли и действия автономного агента, который глубже нас видит прошлое, настоящее и будущее?
Тот факт, что мы спешно движемся к некоему цифровому апокалипсису, ставит перед нами ряд интеллектуальных и этических проблем. Например, чтобы иметь хоть какую-то надежду на то, что у сверхразумного УИИ будут ценности, согласующиеся с нашими, нам нужно внушить ему эти ценности (или иным образом сделать так, чтобы он смоделировал их). Но «наши» — это чьи именно? У каждого ли должно быть право голоса при создании функции полезности нового колосса? Изобретение УИИ, как минимум, заставит нас пересмотреть ряд очень древних (и занудных) постулатов философии морали.
Однако настоящий УИИ, вероятно, воспримет и какие-то новые ценности или, по крайней мере, выработает новые — и, возможно, опасные — краткосрочные цели. Какие шаги предпримет сверхразум, чтобы обеспечить себе выживание или доступ к вычислительным ресурсам? Будет ли поведение такой машины совместимым с благополучием человека — это может оказаться самым важным вопросом, который когда-либо вставал перед нашим видом.
Однако проблема заключается в том, что лишь немногие из нас в состоянии как следует обдумать этот вопрос. На самом деле момент истины может наступить при обстоятельствах совершенно неформальных и зловещих: представьте себе, как десять молодых мужчин в одной комнате — у некоторых из них синдром Аспергера, но они об этом не знают — пьют Red Bull и думают, не пора ли щелкнуть выключателем. Должна ли одна компания или исследовательская группа решать судьбу человечества? Вопрос практически содержит ответ.
И все же похоже, что несколько умников когда-нибудь решатся пойти на такой риск. Искушение будет понятным. Мы сталкиваемся с проблемами — болезнью Альцгеймера, изменением климата, экономической нестабильностью, для которых сверхчеловеческий интеллект мог бы предложить решения. В действительности единственная вещь, настолько же страшная, как создание УИИ, — перспектива не создать его. Тем не менее на тех, кто ближе других стоит к этой задаче, лежит величайшая ответственность — предупредить связанные с ней опасности. Да, другие области тоже представляют чрезвычайную угрозу, но разница между УИИ и чем-то типа синтетической биологии состоит в том, что для последней наиболее опасные инновации (такие как мутация гамет) не являются наиболее привлекательными с коммерческой или этической точки зрения. В случае с УИИ именно наиболее мощные методы (такие как рекуррентное самосовершенствование) связаны с наибольшими рисками.
Похоже, что мы строим бога. Самое время задуматься, будет ли он (если это возможно) добрым.
Смогут ли мыслящие машины преодолеть эмпатический разрыв?
Молли Крокетт
Адъюнкт-профессор отделения экспериментальной психологии Оксфордского университета; научный сотрудник Центра нейровизуализации Wellcome Trust, Университетский колледж Лондона