Вот почему искусственный интеллект, который меня больше всего тревожит, воплощен в автономных сущностях военного назначения: искусственных солдатах, разнообразных беспилотных аппаратах и тому подобных системах. Ценности, которые мы можем пожелать привить таким сущностям, — боеготовность и эффективное уничтожение живой силы противника. Но эти положительные ценности, если что-то пойдет немного не так, способны превратиться в одержимость и агрессивность. Не проявив надлежащей сдержанности и здравомыслия, исследователи могут вдруг обнаружить, что помогли создать армию сильных, умных, злобных параноиков.
В отличие от ситуации с ядерным оружием, тут нет никаких ясных и понятных «красных линий». Со стимулами, которые движут сильным искусственным интеллектом, может произойти множество разных неправильных вещей, и такая угроза кажется мне наиболее реальной не в последнюю очередь потому, что военные обладают огромными ресурсами, много вкладывают в исследования в области ИИ и считают, что обязаны состязаться друг с другом (иначе говоря, они оценивают потенциальные угрозы и повышают боеготовность).
Как избежать этой опасности, не отказываясь от всех благ, которые сулит нам искусственный интеллект? Я думаю, что важнее всего — прозрачность и открытое обсуждение. «Википедия» и сообщества программистов, работающие над приложениями с открытым исходным кодом, — это впечатляющие примеры открытости в совместной работе для достижения общей цели. Их успех демонстрирует, что очень сложные проекты могут прекрасно работать в открытой среде, где множество людей внимательно следят за тем, что именно происходит с проектом, и поддерживают единые стандарты. Если бы специалисты в области искусственного интеллекта приняли на себя коллективное обязательство воздерживаться от секретных исследований, это стало бы важным шагом для развития отрасли.
Когда я говорю «Бруно Латур» я имею в виду вовсе не «баран ли тур?»
Джон Нотон
Вице-президент Вулфсон-колледжа, Кембридж; почетный профессор общественного понимания технологий Открытого университета; автор книги «От Гутенберга до Цукерберга: Что вам очень нужно знать об Интернете» (From Gutenberg to Zuckerberg: What You Really Need to Know About the Internet)
Что я думаю о машинах, которые думают? Ну, это зависит от того, о чем и насколько хорошо они думают. В течение многих десятилетий я был помощником Дага Энгельбарта, который считал, что компьютеры — это машины, призванные дополнить человеческий интеллект. Электроусилитель разума, если угодно. Он посвятил всю свою жизнь осуществлению этой мечты, но она постоянно ускользала от него, потому что технологии всегда были слишком несовершенными, слишком неразвитыми, слишком негибкими.
Они до сих пор остаются такими, несмотря на закон Мура и все прочее. Улучшения есть, но происходят они очень медленно. Поисковые системы, например, в определенных ситуациях стали вполне годным средством протезирования памяти для некоторых из нас. Но они все еще довольно глупые. Так что я очень жду того момента, когда я смогу сказать своему компьютеру: «Эй, как ты думаешь: не является ли идея Роберта Нозика о развитии государства крайним случаем действия сетевых эффектов?» — и получить ответ, который будет хотя бы приблизительно так же хорош, как ответ обычного аспиранта.
Но до этого, увы, еще далеко. Прямо сейчас мне довольно сложно убедить программу, преобразующую то, что я диктую, в текст, и когда я говорю «Бруно Латур», то имею в виду вовсе не «баран ли тур?». Но, по крайней мере, приложение «Персональный помощник» в моем смартфоне знает, что когда я прошу показать прогноз погоды, то мне нужен прогноз для британского Кембриджа, а не для одноименного города в Массачусетсе.
Но приложение «Персональный помощник» на самом деле довольно убого. Вот что мне и вправду хотелось бы получить, так это машину, которая будет функционировать подобно настоящему личному помощнику, что-то, что позволит мне работать эффективнее. Иначе говоря, машину, которая может думать самостоятельно. Как узнать, когда технологии будут достаточно развитыми для этого? Очень просто: когда мой личный помощник, обладающий искусственным разумом, сможет придумать нормальную отговорку, позволяющую не делать того, чего мне делать не хочется.
Стоит ли мне беспокоиться по поводу возможного появления мыслящих машин? Вероятно, стоит. Ник Бостром определенно считает, что стоит. Он утверждает, что наша зацикленность на желании сделать компьютер, который продемонстрировал бы интеллект человеческого уровня, — результат заблуждения. Мы рассматриваем машины, которые могут пройти тест Тьюринга, как конечную цель научных поисков Дага Энгельбарта. Но Бостром считает, что прохождение теста — лишь полустанок на пути к чему-то намного более тревожному. «Этот поезд, — говорит он, — может проскочить станцию „Человеково“, не останавливаясь и даже не снижая ход. Скорее всего, он со свистом пронесется мимо»
{4}. И Бостром прав. Так что мне стоит быть осторожнее с желаниями.
Мы пока что стоим в самом начале пути
Ник Бостром
Профессор Оксфордского университета; директор Института будущего человечества, Школа Мартина, Оксфорд; автор книги «Искусственный интеллект: Этапы. Угрозы. Стратегии» (Superintelligence: Paths, Dangers, Strategies)
[39]
Прежде чем говорить о том, что я думаю по поводу мыслящих машин, я скажу вот что: мы по большей части слишком поспешно стремимся сформировать мнение по этой сложной теме. Многие пожилые ученые до сих пор не знают о новом корпусе научных идей, который появился на основе допущения о появлении сверхразума. Существует тенденция приспосабливать любую сложную новую идею под знакомый шаблон. И по какой-то странной причине многие считают, что надо обсуждать события, описанные в различных научно-фантастических романах и фильмах, когда заходит разговор о будущем искусственного интеллекта (хотя предостережение Джона Брокмана, высказанное комментаторам Edge, о том, что не следует так поступать, можно считать смягчающим фактором).
Что ж, я снял эту тяжесть с груди и теперь выскажусь по поводу мыслящих машин: машины на данный момент очень плохо думают, за исключением определенных узких областей. Возможно, когда-нибудь они научатся делать это лучше нас, точно так же, как уже сейчас они стали намного сильнее и быстрее, чем любое биологическое существо.
У нас мало информации о том, как далеки мы от этой точки, так что в попытках определить возможное время появления сверхразума нам надо использовать широкое вероятностное распределение. Переход от искусственного интеллекта уровня человеческого к сверхразуму, скорее всего, произойдет быстрее, чем переход от нынешнего уровня ИИ до уровня человеческого (хотя в зависимости от архитектуры понятие «человеческого уровня» может и не иметь особого смысла в этом контексте). Сверхразум запросто способен оказаться лучшим или худшим, что когда-либо случалось в истории человечества, по причинам, которые я описал в других своих работах.