Задача Салли-Энн со всеми ее ментальными моделями и отслеживанием ложных убеждений – на самом деле упрощенная версия теста Тьюринга. Возможно, Тьюринг и думал, что пишет о вычислительных технологиях, но он был также хорошим социальным психологом, на 30 лет опередившим свое время. Чтобы проверить, может ли машина мыслить, я скорее воспользуюсь сложным тестом Тьюринга, нежели поверхностной задачкой Салли-Энн. Тест ставит машину перед более сложной проблемой. Чтобы действовать, как человек, машина должна обладать блестящими языковыми умениями, актуальным знанием повседневной жизни и великолепными способностями логически размышлять об убеждениях других.
Тьюринг никогда не утверждал, что его игра в угадайку – тест на наличие сознания. Он никогда не обсуждал связь этой игры с субъективным опытом, осознанием, квалиа
[214], внутренним ощущением, приходящим вместе с обработкой информации, или любыми другими способами разговора о сознании. Если машина изначальный тест Тьюринга проходит, мы можем быть уверены, что это удивительно сложно устроенный компьютер. У него должно быть что-то вроде нормального содержания человеческого сознания, иначе он не смог бы поддерживать разговор, – но не факт, что у него есть собственные сознаваемые переживания.
За годы, прошедшие с исходной публикации Тьюринга, его тест присвоили и переиначили толпы фанатов искусственного интеллекта. Знаменитый тест Тьюринга, о котором все слышали в наше время, довольно заметно отличается от оригинала. И от задачи Салли-Энн тоже отличается. Современная версия сосредоточена не на социальном познании, а на сознании. Чтобы понять, есть ли у машины сознание, достаточно с ней поговорить. Если вы не можете определить, с машиной разговариваете или с человеком, – машина прошла испытание. Новый тест усовершенствован по сравнению с предшествующим – теперь его легко провести с настоящими компьютерами, и это проделывали множество раз. Люди организуют целые конференции, чтобы прогонять машины через осовремененный тест Тьюринга; самая известная из них – это ежегодное соревнование компьютерных программ за премию Лёбнера (и все же до сих пор ни одна машина не смогла повсеместно убедить ученых, что у нее есть сознание).
Но даже если бы какая-то машина прошла этот современный тест Тьюринга, мы по-прежнему не смогли бы определить, есть ли у нее внутренний опыт. Тест способностей к разговору нелогично применять в качестве теста на наличие сознания. Учитывая, сколь легко убедить некоторых в том, что сознание есть у рек и деревьев, может оказаться совсем нетрудным одурачить хотя бы несколько человек и заставить их считать обладающей сознанием машину, у которой на самом деле сознания нет. Если бы мы построили машину, которая действительно обладает сознанием, даже она могла бы провалить тест Тьюринга. Сознание не всегда означает способность вести светскую беседу. О чем говорить – да трехлетний ребенок не прошел бы этот тест! Как и некоторые взрослые. Как и домашние собаки, хотя львиная доля человечества вполне уверена, что у собак есть осознаваемый опыт. Просто тест не очень работает. Но сама идея теста Тьюринга настолько вросла в нашу культуру, мы так с ней сроднились, что будто бы приняли ее в качестве работающего решения проблемы. Обоснование этого обычно звучит примерно так: “Я знаю, что у меня есть сознание, поскольку имею непосредственный опыт переживания своего собственного разума. Но я не могу знать, сознательны ли другие люди. Как бы мне ни хотелось в это верить и как бы я ни любил своих детей, жену и кошку, я никогда не смогу напрямую испытать опыт их сознания. Это невозможно. Придется удовлетвориться лучшим из того, что мне доступно, – я условно допущу наличие у них сознания, поскольку они ведут себя так, будто оно у них есть. Аналогичным образом я не могу доказать наличие сознания у машины. Это недоказуемо. Но с тестом Тьюринга я могу сделать лучшее из возможного – проверить, принадлежит ли машина к той же категории, что мои жена, дети и домашние животные. Я смогу определить, способна ли машина вести себя настолько убедительно, что уподобится сознающему существу, – тогда мне придется условно допустить, что она действительно обладает сознанием”.
Так выглядит типичное рассуждение. Но я бы хотел развеять таинственный ореол вокруг теста Тьюринга. Исходя из теории схемы внимания, мы можем выяснить с объективной достоверностью, обладает ли машина тем же типом сознания, что и люди. Причем прямой личный опыт – не единственный способ (это вообще не слишком хороший способ) выяснить что-то о собственном сознании.
“Конечно, у меня есть сознание! Я точно знаю это – у меня есть непосредственный опыт его переживания”.
Если это не круговая логическая ловушка, то что же? Сознание является непосредственным опытом. Следовательно, данное утверждение эквивалентно такому: “Я знаю, что у меня есть сознание, потому что у меня есть сознание”. Как я уже говорил, машина – заложник содержащейся в ней информации. Определенная внутренняя модель сообщает машине, что у нее есть сознание, и получается, будто она “знает”, что у нее есть сознание. Внутренняя модель сообщает машине, что ее сознание не имеет физического носителя и является сугубо частным опытом, – получается, машина “знает”, что ее сознание не может подтвердить никто другой.
Но внутренняя модель – это информация, а информацию можно объективно измерить. Нам нет нужды полагаться на личные утверждения. В теории схемы внимания, чтобы определить наличие сознания у машины, нам нужно “ощупать ее внутренности” и понять, содержит ли она схему внимания, а затем прочесть информацию в этой схеме внимания. Тогда мы с объективной достоверностью выясним, может ли эта машина, подобно нам, полагать, что у нее есть осознаваемый субъективный опыт. Если в ее внутренней модели есть соответствующая информация, то да. Если нет – то нет. Все это, в принципе, можно измерить и подтвердить.
Измерить имеющуюся в человеческом мозге информацию сложно, но не невозможно. В ограниченных масштабах ученые уже этим занимаются. Хороший набор электродов на вашей голове поможет исследователям предсказать, куда вы собираетесь двинуть рукой – вправо или влево
[215]. По качественной магнитно-резонансной томограмме
[216] зрительной коры ученые могут определить, смотрите вы на лицо или на дом
[217]. Считывать более сложную информацию пока невозможно, но это решается усовершенствованием технологий. Уверен, что технологии считывания данных из мозга в действительно высоком разрешении разовьются со временем (и это внушает тревогу). Возможность измерять информацию в человеческой схеме внимания должна существовать в принципе, пусть даже извлечение таких сложных сведений из мозга – дело далекого будущего. Главное здесь то, что в теории схемы внимания сознание не обречено навеки оставаться исключительно частным и личным опытом. “Я знаю, что у меня есть сознание, но никогда не смогу узнать, есть ли оно у тебя” – это неправда. Узнать, считает ли чей-то мозг, что у него есть сознание, такое же как у меня, – это вопрос развития технологий для считывания из него информации.