В мире искусственного интеллекта я до сих пор не встречал ничего подобного такой сложности внимания. Одна из причин в том, что искусственный интеллект, как правило, сосредоточен на одной модальности. Возьмем, например, систему искусственного распознавания лиц: это важная функция, которую можно применять различными способами, но в основном она обходит вопрос внимания стороной. Направить камеру на лицо, которое вы хотите идентифицировать, умеет и простая версия пространственного внимания, а затем свою работу делает уже алгоритм распознавания. Данной специфической машине в принципе не требуется переключать фокус внимания между различными модальностями информации – с лиц на звуки, со звуков на мысли: она работает исключительно в границах сферы распознавания лиц. В сущности, эта система не имеет отношения к вниманию, разве что в самом тривиальном, очевидном смысле наведения взгляда на цель. Искусственное внимание технически возможно, и многие специалисты работают над ним, но до сих пор оно не обрело межмодальной связности, подобной той, что присуща человеческому вниманию. Первый компонент сознающей машины не стоит на месте, но ему предстоит еще развиваться и развиваться.
Второй компонент, необходимый для машины, – схема внимания, ключевая внутренняя модель, которая в общих чертах описывает внимание и таким образом сообщает машине о наличии сознания.
Один мой коллега как-то сказал, что у любого стационарного компьютера давно уже имеется что-то вроде схемы внимания – комплекс информации, который отслеживает распределение ресурсов обработки. Получается, что, согласно моей теории, любой компьютер уже обладает сознанием. Другой коллега пообещал запросто запрограммировать всю мою теорию за полдня. Он мог бы состряпать искусственную версию зрительного внимания, подсоединить ее к модулю, который отслеживает его изменения, – и вуаля, если я прав, устройство должно начать осознавать себя. Группа коллег и в самом деле создала устройство искусственного внимания со схемой внимания, которая помогала этому устройству отслеживать внимание и управлять им
[219]. Как и ожидалось, внутренняя модель поспособствовала тому, чтобы сделать управление вниманием более эффективным, – но стала ли машина осознавать себя?
Я практически уверен, что нет. Ни один из приведенных примеров не свидетельствует о наличии сознания. Схема внимания – не магический талисман, который можно засунуть в компьютер, чтобы оно возникло. Это пакет информации. Если пакет несет простое сообщение вроде: “Переменная А – в допустимых пределах” и если машина может вербализовать эту информацию – она не скажет вам: “Я переживаю сознательный опыт!”, она расскажет только о переменной А. Во взаимоотношениях схемы внимания с сознанием нет никакой магии. Если схема внимания сообщит машине о наличии сознания, то машина получит информацию о том, что у нее есть сознание.
Человеческая схема внимания формировалась сотни миллионов лет в ходе эволюции, и ее содержание – довольно странное, биологически неоднородное, “комковатое”. Она описывает внимание как незримое свойство, как разум, который может переживать или вбирать в себя объекты, как силу, которая позволяет человеку действовать и помнить, как нечто не имеющее собственного физического воплощения, но существующее внутри человека в виде его личного опыта. Схема внимания – не просто указатель на предмет, не просто пара строк кода. Она рисует глубокую картину внимания и его предсказуемых последствий. Постройте машину, обладающую схемой внимания такого же типа, содержащую странные, биологически беспорядочные “комки”, как у настоящей, – и получите машину, которая подобным человеку образом сможет утверждать, что обладает сознанием. Для построения искусственной схемы внимания нет принципиальных технологических препятствий. Вероятно, это самый простой (и уж точно самый подробно описанный) из всех необходимых в машине компонентов.
В качестве следующего компонента сознающей машине понадобится содержание. Пожалуй, конструирование богатого и разнообразного содержания сознания – самая сложная задача, поскольку она не имеет конечного решения. Ирония состоит в том, что описанная выше пресловутая трудная проблема (сделать так, чтобы машина хоть что-то осознавала), скорее всего, окажется самой простой, а простая проблема (дать машине широкий диапазон материала для осознания) может оказаться самой трудной. Думаю, что усилия, направленные на создание искусственного сознания, начнутся с обработки сенсорной информации, особенно зрительной, – поскольку мы очень много знаем о работе сенсорных систем в мозге и об их взаимодействии с вниманием. Но мне кажется, что все мы отнесемся с некоторым скепсисом к машине, которая сможет осознавать черную точку на экране и ничего больше. Это будет полезным лабораторным тестом, но мы не станем считать такую машину функционально сознающей.
Даже если нам удастся заставить машину осознавать широкий диапазон сенсорной информации, в конечном итоге она должна суметь выйти за границы чувств и включить в свое сознание абстрактное мышление. И здесь инженерные проблемы усугубляются. Мы не очень много знаем о том, как абстрактное мышление взаимодействует с механизмами внимания и осознания. Мы знаем, что человек может обращать внимание на определенную мысль, удерживать ее в уме и сосредоточивать на ней ресурсы за счет других возможных мыслей – и даже оттягивать на нее внимание от обработки сенсорной информации
[220]. Нам всем случалось так задумываться, что мы переставали замечать происходящее вокруг нас, во внешнем мире. Но наука о мозге еще не разобралась, как внимание к абстрактным мыслям работает на механическом уровне. Может быть, только через десятки лет мы сможем придумать, как построить машину, обладающую такими способностями.
Но подозреваю, что самым крепким орешком окажутся эмоции. Эту область информации в мозге мы понимаем хуже всего. Самое большее, что можно о ней сказать, – это что мы определили местоположение некоторых связанных с эмоциями мозговых структур
[221]. Иногда люди называют их эмоциональной сетью, или эмоциональной кругом, но детальное понимание функционирования этой системы отсутствует.
Одна из важнейших в этом смысле областей мозга – гипоталамус, структура размером с лесной орех в основании мозга. Более ста лет назад швейцарский психолог Вальтер Гесс открыл, что, если ввести в гипоталамус электрод и для активации нейронов пустить по нему очень слабый ток, можно вызвать то, что для стороннего наблюдателя выглядит как определенные эмоциональные состояния
[222]. Его эксперименты воспроизводились множество раз
[223]. Страх, гнев, похоть, голод – всех этих состояний удается добиться, стимулируя различные точки в гипоталамусе.