Не все философы считают, что между свободной волей и детерминизмом действительно есть столкновение. Группа под названием «совпаденцы», к которой я причисляю с себя, считает это лишь очевидным столкновением между двумя уровнями описания: нейронным, на котором процессы кажутся детерминистскими (за исключением квантового индетерминизма), и когнитивным, на котором у нас есть живое ощущение возможностей. Такие явные несоответствия не столь уж редки в науке. Например, уравнения физики обратимы во времени на микроскопическом уровне, но кажутся необратимыми на макроскопическом уровне описания; дым никогда не возвращается в дымоход. Но это поднимает новые вопросы: если допустить, что свобода воли является (или может быть) иллюзией, почему для нас, людей, так важно иметь эту иллюзию? Почему эволюция приложила усилия, чтобы наделить нас этой концепцией? Уловка это или нет, должны ли мы запрограммировать следующее поколение компьютеров, чтобы создать эту иллюзию? Зачем? Какие вычислительные преимущества это влечет за собой?
Я думаю, что для решения этой вечной загадки — проблемы примирения свободы воли с детерминизмом — нужно понять преимущества иллюзии свободы. Проблема исчезнет на наших глазах, если мы наделим детерминированную машину такими же преимуществами.
Вместе с этой загадкой о функции мы также должны справиться с задачей симуляции. Если нейронные сигналы от мозга запускают все наши действия, то перед ним стоит вечная задача постоянно определять одни действия как «волевые» или «намеренные», а другие — как «непреднамеренные». Что именно представляет собой этот процесс маркировки? Какая нейронная связь обеспечит тому или иному сигналу звание «намеренного»? Во многих случаях добровольные действия распознаются по следу, который они оставляют в кратковременной памяти, причем этот след отражает цель или мотивацию. Например: «Почему ты это сделала?» — «Хотела произвести на тебя впечатление». Или, как невинно ответила Ева: «Змей обольстил меня, и я ела». Но во многих других случаях намеренное действие совершается, однако у него нет очевидных причин или мотивов. Рационализация действий может быть реконструктивным процессом, который происходит уже после действия. Так, футболист может объяснить, почему он решил передать мяч Джо, а не Чарли, но редко бывает, чтобы эти причины сознательно запускали действие. В пылу игры тысячи входных сигналов соревнуются за внимание игрока. Важнейшее решение состоит в том, какому сигналу дать приоритет, а причины трудно вспомнить и сформулировать.
Таким образом, все исследователи искусственного интеллекта пытаются ответить на два вопроса — о функции и симуляции, причем первый ведет за собой второй. Как только мы поймем, какую вычислительную функцию выполняет свободная воля в нашей жизни, мы приступим к оснащению машин такими же функциями. Это станет инженерной проблемой, хотя и весьма сложной.
Для меня четко выделяются некоторые аспекты функционального вопроса. Иллюзия свободы воли дает нам возможность говорить о намерениях и обдумывать их рационально, вероятно, используя контрфактивную логику. Скажем, тренер удаляет нас с футбольного матча и говорит: «Надо было пасовать Чарли». Подумайте обо всех сложных значениях, заключенных в этих восьми словах.
Во-первых, цель этого указания «надо было» — быстро передать ценную информацию от тренера игроку: в будущем, столкнувшись с подобной ситуацией, выбирайте действие B, а не действие A. Но похожих ситуаций слишком много, чтобы их перечислить, и они вряд ли известны даже самому тренеру. Вместо того чтобы перечислять особенности этих похожих ситуаций, тренер указывает на действия игрока, которые отражают его намерения во время принятия решения. Объявляя действие неудачным, тренер просит игрока определить программу, которая привела к его решению, а затем переустановить в ней приоритет, чтобы «пасовать Чарли» стало предпочтительным действием. В этой инструкции есть глубокая мудрость, потому что кто, если не сам игрок, знает свою программу? Это безымянные нейронные пути, которые неведомы тренеру или любому внешнему наблюдателю. Просьба к игроку совершить действие, отличное от предпринятого, означает, что поощряется анализ намерений, подобный описанному выше. Таким образом, обдумывание намерений позволяет преобразовать сложные каузальные указания в простые.
Соответственно, я бы предположил, что команда роботов лучше бы играла в футбол, если бы их запрограммировали общаться так, словно у них есть свобода воли. Независимо от того, насколько техничны отдельные роботы, результативность их команды улучшится, если они смогут разговаривать друг с другом, как если бы они были не заранее запрограммированными роботами, а автономными агентами, полагающими, что у них есть выбор.
Хотя пока неизвестно, улучшит ли иллюзия свободы воли взаимодействие роботов с роботами, в плане взаимодействия роботов с людьми неуверенности гораздо меньше. Для естественного общения с людьми сильному ИИ, безусловно, потребуется понимать вокабуляр возможностей и намерений, и, следовательно, имитировать иллюзию свободной воли. Как я объяснил выше, им также выгодно самим «верить» в свою свободную волю — чтобы иметь возможность осознать собственное намерение и изменить действие.
Способность рассуждать о своих убеждениях, намерениях и желаниях представляет серьезный вызов для исследователей ИИ и определяет понятие свободы действий. Однако философы изучают эту способность как часть классической проблемы самосознания. Такие вопросы, как «Могут ли машины иметь сознание?» или «Чем программа со свободой действий отличается от обычной программы?», занимали и занимают лучшие умы многих поколений, и я не буду притворяться, что готов дать на них полные ответы. Тем не менее я считаю, что алгоритмизация контрфактивного — важный шаг к пониманию этих вопросов и к превращению сознания и действия в вычислительную реальность. Методы, описанные для оснащения машины символическим представлением окружающей среды и способностью представить гипотетическое возмущение этой среды, могут быть расширены, чтобы включить в среду саму машину. Ни одна машина не способна обработать полную копию собственного программного обеспечения, однако ей можно дать схему его основных компонентов. Другие компоненты затем станут рассуждать об этой схеме и имитировать состояние самосознания.
Чтобы создать ощущение свободы действий, мы также должны оснастить этот программный пакет памятью для записи прошлых активаций, на которые он будет ссылаться, когда его спросят: «Почему ты это сделал?» Действия, которые проходят через определенные паттерны при активации пути, получат аргументированные объяснения, например: «Потому что альтернатива оказалась менее привлекательной». Другие ответы будут бесполезными или уклончивыми: «Хотел бы я знать почему» или «Потому что ты меня так запрограммировал».
Подводя итог, я считаю, что программный пакет, который даст мыслящей машине преимущества свободы воли, будет состоять как минимум из трех частей: из причинной модели мира, причинной модели собственного программного обеспечения, пусть и поверхностной, и памяти, в которой будет записано, как намерения в ее уме соответствуют событиям во внешнем мире.
Возможно, именно мы сами начинаем понимать причины в раннем детстве. У нас в сознании присутствует что-то вроде генератора намерений, который говорит нам, что мы должны предпринять действие X = x. Но дети любят экспериментировать — бросать вызов родителям, учителям и даже собственным изначальным намерениям — и делать что-то новое, просто для удовольствия. Полностью осознавая, что мы должны сделать X = x, мы игриво делаем X = x¢. Потом мы смотрим, что происходит, повторяем процесс и ведем отчетность о том, насколько хорош наш генератор намерений. Наконец, когда мы начинаем настраивать собственное программное обеспечение, именно тогда мы и берем на себя моральную ответственность за свои действия. Эта ответственность выступает иллюзией на уровне нейронной активации, но не на уровне программного обеспечения самосознания.