Если инженеры Cycorp потратят достаточное количество времени и сил, смогут ли они действительно закодировать все человеческие знания, основанные на здравом смысле, или хотя бы их достаточную часть (какую бы их часть при этом ни признали “достаточной”)? Сомневаюсь. Если все люди обладают основанными на здравом смысле знаниями, но эти знания нигде не записаны, значит, существенная их часть остается неосознанной – мы даже не знаем, что они у нас есть. Мы не осознаем значительную долю изначальных интуитивных знаний физики, биологии и психологии, которые лежат в основе наших представлений о мире. Если вы не сознаете, что знаете что-либо, то не можете быть “экспертом”, который в явной форме задает это знание компьютеру.
Кроме того, как я отметила в предыдущей главе, основанные на здравом смысле знания усваиваются путем построения абстракций и аналогий. Здравый смысл не может существовать без этих способностей. Но человеческие способности к построению абстракций и аналогий невозможно приобрести, анализируя массивный набор фактов Cyc, и, я полагаю, путем логического вывода вообще.
На момент написания этой книги работа над проектом Cyc ведется более тридцати лет. Cycorp и ее дочерняя компания Lucid коммерциализируют проект, предлагая целый спектр решений для бизнеса. На сайтах обеих компаний рассказываются “истории успеха” о применении Cyc в финансах, нефтегазовой отрасли, медицине и других сферах. В некотором роде Cyc повторяет путь суперкомпьютера Watson, разработанного IBM: оба запускались как масштабные исследовательские проекты с далеко идущими целями, и оба превратились в набор коммерческих продуктов с раздутой рекламой (так, Cyc “обеспечивает компьютеры человеческим пониманием и логическим мышлением”
[339]), но узким, а не общим фокусом и недостатком прозрачности при описании реальной производительности и способностей системы.
Проект Cyc не оказал особого влияния на основные направления работы в сфере ИИ. Более того, некоторые представители ИИ-сообщества выступили с резкой критикой проекта. Так, профессор Вашингтонского университета и специалист по ИИ Педро Домингос назвал Cyc “самым громким провалом в истории ИИ”
[340]. Специалист по робототехнике из MIT Родни Брукс выразился чуть мягче: “Несмотря на масштабы проекта, [Cyc] не привел к созданию системы ИИ, способной хотя бы на базовом уровне понимать мир”
[341].
Но как быть с наделением компьютеров неосознаваемыми знаниями о мире, которые мы усваиваем в детстве и кладем в основу всех своих представлений? Как нам обучить компьютер, например, интуитивной физике объектов? Несколько исследовательских групп приняли этот вызов и сейчас разрабатывают системы ИИ, усваивающие некоторые знания о причинно-следственной физике мира из видеороликов, видеоигр и других типов виртуальной реальности
[342]. Все эти проекты весьма любопытны, но пока успели сделать лишь несколько крошечных шагов, а потому их изначальные интуитивные знания о мире сравнимы со знаниями младенца.
Когда глубокое обучение продемонстрировало целую серию успехов, многим – как в сообществе ИИ, так и за его пределами – показалось, что создание общего ИИ человеческого уровня не за горами. Однако, как я не раз говорила в этой книге, при более широком применении систем глубокого обучения в их “интеллекте” обнаруживаются изъяны. Даже самые успешные системы не умеют обобщать понятия за пределами узких областей своей компетенции, строить абстракции и устанавливать причинно-следственные связи
[343]. Кроме того, их нечеловеческие ошибки и уязвимость к так называемым контрпримерам показывают, что они не понимают концепции, которым мы пытаемся их обучить. Можно ли исправить эти недостатки с помощью большего объема данных или более глубоких сетей? Или же проблема гораздо серьезнее? Споры об этом не утихают по сей день
[344].
В последнее время я наблюдаю сдвиг в этих дебатах: сообщество ИИ снова заговорило о первостепенной важности наделения машин здравым смыслом. В 2018 году один из основателей Microsoft Пол Аллен удвоил бюджет своего исследовательского института с целью изучения здравого смысла. Не отстают и государственные финансирующие организации: в 2018 году Управление перспективных исследовательских проектов Министерства обороны США (DARPA), один из основных государственных спонсоров исследований искусственного интеллекта, обнародовало планы предоставить значительное финансирование для изучения здравого смысла в ИИ. “ [Сегодня] машины мыслят узко, а их рассуждения имеют в высшей степени специализированный характер, – подчеркнули в управлении. – Рассуждения на основе здравого смысла машинам никак не даются. Программа [финансирования] приведет к созданию знаний, в большей степени напоминающих человеческие, например основанных на восприятии, и позволит машинам на основе здравого смысла рассуждать о физическом мире и пространственно-временных феноменах”
[345].
Абстракция в идеале
“Формирование абстракций” входило в список ключевых способностей ИИ, перечисленных в дартмутской заявке 1955 года, которую я описала в главе 1. Тем не менее задача научить машины строить концептуальные абстракции на манер человека по-прежнему не решена.
Именно вопросы построения абстракций и аналогий однажды привели меня в сферу ИИ. Мой интерес разгорелся с особенной силой, когда я открыла для себя зрительные головоломки, называемые задачами Бонгарда. Эти задачи предложил советский кибернетик Михаил Бонгард, который в 1967 году опубликовал книгу “Проблема узнавания”
[346]. В книге описывалась предлагаемая Бонгардом система распознавания зрительных образов, напоминающая перцептрон, но наиболее значимой частью работы стало приложение, в котором Бонгард собрал сто задач для программ ИИ. На рис. 45 показаны примеры задач из коллекции Бонгарда
[347].