Аналогичным образом обстоят дела со встроенными в смартфоны персональными помощниками. Например, если спросить, где находится ближайший травмпункт, вы получите его адрес, а вот в ответ на вопрос, куда обратиться с вывихнутой лодыжкой, система, скорее всего, просто откроет веб-страницу с информацией о способах лечения растяжений.
С этими проблемами сталкиваются и диалоговые системы, способные обучаться на данных. Летом 2017 г., когда Ассоциация по компьютерной лингвистике вручала мне награду, я обратилась к тем, кто работает над системами естественного языка на базе глубокого обучения, и сказала, что микроблоги Twitter не годятся в качестве примеров диалогов – нужны реальные данные.
М. Ф.: Но ведь способность отойти от сценария и справиться с непредсказуемой ситуацией это и есть настоящий интеллект. Именно здесь проходит граница между автоматом или роботом и человеком.
Б. Г.: Вы совершенно правы. Вспомните философскую идею коммуникативной импликатуры, разработанную в 1960-х гг. Полом Грайсом, Джоном Остином и Джоном Серлем. Например, говоря компьютеру: «Принтер неисправен», человек хочет, чтобы система предприняла какие-то действия для устранения неисправности, а не просто ответила: «Спасибо, факт зафиксирован». Но такое возможно только в случае, когда система может вычленить смысл из того, что было сказано.
Современные системы игнорируют интенциональную структуру диалога. Другие признаки интеллекта в системах на базе глубокого обучения в большинстве случаев тоже отсутствуют: они не могут использовать контрафактное мышление или рассуждать с точки зрения здравого смысла. Все эти вещи нужны для участия в свободном диалоге, когда на слова и действия обеих сторон не наложено никаких ограничений.
М. Ф.: Помню, как меня поразила победа суперкомпьютера Watson от IBM в телевикторине «Своя игра». Это действительно крупный прорыв или же существуют какие-то более передовые разработки?
Б. Г.: Я считаю Siri и Watson феноменальными достижениями техники. Они поменяли наш способ взаимодействия с компьютерами. Но до человеческих способностей им все еще далеко.
Когда в 2011 г. я впервые поговорила с Siri, мне понадобилось всего три вопроса, чтобы понять, что передо мной не человек. А когда допускает ошибки Watson, сразу становится ясно, где именно язык обрабатывается не так, как это делают люди.
Но мы действительно феноменально продвинулись. Я в восторге от того, что ИИ появился и начал менять наш мир, потому что не думала его застать, ведь преграды на пути к нему казались слишком сложными.
М. Ф.: Вы действительно не верили, что ИИ появится при вашей жизни?
Б. Г.: Тогда, в 1970-х гг.? Нет, не верила.
М. Ф.: Watson удивил меня умением понимать каламбуры, шутки и сложные языковые конструкции.
Б. Г.: Если заглянуть внутрь этих систем, сразу станут заметными их ограничения. Для сферы ИИ, да и, честно говоря, для всего мира было бы полезнее, если бы мы не стремились заменить людей или создать сильный ИИ, а попытались понять, для чего лучше подходят способности компьютера и как мы можем взаимодополнять друг друга.
М. Ф.: Способность говорить не по сценарию напрямую связана с тестом Тьюринга. Я знаю, что вы внесли свой вклад в эту область. Как вы думаете, зачем Тьюринг придумал этот тест?
Б. Г.: Я напомню, что Тьюринг предложил свой тест в 1950 г., после появления новых вычислительных машин. Конечно, по сравнению с тем, что предлагают современные смартфоны, возможности этих систем были невелики, но уже тогда многие задавались вопросом, могут ли эти машины думать как человек. Если помните, Тьюринг приравнивал термины «интеллект» и «мышление». Он поставил интересный философский вопрос – могут ли машины демонстрировать определенный тип поведения? В то время психология базировалась на бихевиоризме, поэтому его тест представлял собой испытание эксплуатационных качеств, без учета того, что происходит внутри.
Тест Тьюринга нельзя считать хорошим тестом на интеллект. Честно говоря, я бы его, скорее всего, провалила. Не показывает он и того, в какую сторону нужно развивать ИИ. Тьюринг был удивительно умным человеком, и, мне кажется, он бы предложил другой вариант теста, если бы жил сейчас.
М. Ф.: Я знаю, что и вы предложили усовершенствование или даже замену тесту Тьюринга.
Б. Г.: Сейчас мы знаем, что развитие человеческого интеллекта, как и языковой потенциал, зависит от социального взаимодействия. Кроме того, во многих ситуациях люди предпочитают действовать совместно. Поэтому я предположила, что нужно стремиться создать систему, которая была бы хорошим партнером и работала бы в коллективе так хорошо, что люди бы даже не задумывались о ее природе. Дело ведь не в том, чтобы одурачить людей, заставив их думать, что ноутбук, робот или телефон – это такой же человек. Нужно сделать так, чтобы у людей не возникало вопроса «почему он поступил именно так?». А такой вопрос непременно возникает, когда совершается ошибка, не характерная для человека.
Поставленная таким образом цель имеет несколько преимуществ по сравнению с тестом Тьюринга: к ней можно двигаться постепенно, выбирая оптимальное направление, и получить взаимодополнение способностей человека и компьютера. Мой тест высоко оценили в Эдинбурге на мероприятии, посвященном 100-летию со дня рождения Тьюринга.
М. Ф.: Я всегда полагал, что как только мы действительно получим машинный интеллект, это попросту будет очевидно всем. Ведь в процессе общения мы каким-то образом без предварительных тестов понимаем, умный перед нами человек или не очень.
Б. Г.: Это хорошее замечание. Если вспомнить мой пример с двумя вопросами «где ближайшая больница?» и «где искать помощь в случае сердечного приступа?», то человек (не приезжий), который считается умным, даст ответ в обоих случаях. Мой вариант теста не ограничен во времени и изначально задумывался как пролонгированный. Впрочем, тест Тьюринга также не предполагал временных ограничений, но об этом часто забывают, в частности, на соревнованиях по ИИ.
М. Ф.: Это же абсурдно. Чтобы продемонстрировать интеллект, нужен неопределенно долгий период времени. Мне вспоминается премия Лебнера, которая ежегодно присуждается программам по результатам прохождения ими ограниченного определенным временем теста Тьюринга.
Б. Г.: Именно так. Кроме того, это объясняет одну вещь, с которой мы столкнулись, когда только начинали заниматься обработкой естественного языка. Оказалось, что в случае фиксированной задачи с фиксированным набором ответов на нее, которую нужно решить за фиксированное время, приемы, легко дающие нужный результат, предпочитаются настоящей интеллектуальной обработке данных. Фактически система проектируется таким образом, чтобы она могла пройти тест!
М. Ф.: Расскажите о второй области, в которой вы работали, – многоагентных системах.
Б. Г.: Интенциональную модель дискурса, о которой я упоминала ранее, мы с Кенди Сиднер сначала попытались построить на базе работы наших коллег, которые использовали для формализации теории речевых актов разработанные для роботов ИИ-модели планирования. Но в контексте диалога описанные техники давали неадекватные результаты. Мы поняли, что командную работу или совместную деятельность нельзя представлять как сумму индивидуальных планов.