• Многие решения принимаются в условиях неопределенности. Мы решаем взять зонтик, потому что предполагаем, что будет дождь, но он может и не пойти. Мы решаем авторизовать транзакцию, потому что считаем ее правомерной, но можем ошибаться. В условиях неопределенности необходимо выявить варианты отдачи от действий, предпринятых в результате ошибочных решений, а не только верных: неопределенность увеличивает издержки на суждения о вариантах отдачи для данного решения.
• При наличии контролируемого количества пар «действие+ситуация», связанных с решением, можно возложить обязанность по вынесению суждения на прогностическую машину (это «разработка функции вознаграждения»), чтобы она самостоятельно принимала решение после того, как сделает прогноз. Это позволяет автоматизировать решения. Однако чаще количество пар «действие+ситуация» очень велико и поэтому требует слишком много издержек для предварительного программирования всех вариантов отдачи для каждой комбинации, особенно для уникальных и редко встречающихся. В таких случаях суждение человека после выдачи прогноза машиной эффективнее.
Глава 7. Прогнозирование суждения
В числе прочих Waymo (проект Google) успешно тестирует автоматизированные способы транспортировки людей между двумя пунктами назначения. Но это только часть создания беспилотных транспортных средств. Вождение влияет еще и на пассажиров, что гораздо труднее отслеживать. Человек за рулем учитывает наличие других людей в автомобиле. Один из первых навыков, осваиваемых водителем, – плавное торможение, комфортное для пассажиров. Машины Waymo учат избегать резкой остановки.
В процессе вождения принимаются тысячи решений
[70]. Людям нецелесообразно программировать суждение для всех возможных ситуаций. Системы автономного вождения обучают на примерах, чтобы они умели прогнозировать человеческое суждение: «Как в этой ситуации поступил бы человек?» И вождение не единственный пример. В любой обстановке, где люди многократно принимают решения и способны запоминать информацию о полученных данных и сделанном на их основе выборе, мы сможем автоматизировать принятие решений, вознаграждая прогностические машины за прогноз действий человека.
Важнейший вопрос, по крайней мере для людей, заключается в том, сможет ли ИИ использовать свои прогностические возможности для вынесения человеческих суждений и таким образом вообще устранить потребность в людях.
Взломать человека
Многие решения сложны и базируются на суждении, которое невозможно запрограммировать. Однако это не гарантирует, что основная ответственность за принятие таких решений сохранится за человеком. Напротив, машина, как и беспилотные автомобили, может научиться прогнозировать человеческое суждение на примерах. Прогностическая задача формулируется так: «Что сделал бы человек с учетом входных данных?»
Компания Grammarly уже создала прецедент. Ее основали в 2009 году Алекс Шевченко и Макс Литвин и первыми использовали машинное обучение для проверки письменных текстов. Программа исправляет грамматические и орфографические ошибки. Например, если проверить оригинал предыдущего предложения на английском языке (It’s main focus is on improving grammer and spelling in sentences), Grammarly сообщит, что вместо it’s должно быть its, а grammer написано с ошибкой (нужно исправить на grammar). И добавит, что слово main чаще всего бывает лишним.
Grammarly сделала такой вывод на основе массы изученных документов, проверенных компетентными редакторами, и обратной связи от пользователей, которые принимали или отвергали предложенные исправления. В обоих случаях программа прогнозирует, как поступил бы профессиональный редактор. Она выходит за пределы механического применения грамматических правил и анализирует, предпочтительны ли отклонения от них для пользователей.
Обучение ИИ человеком осуществляется и в других сферах. В стартапе Lola для автоматизации бронирования гостиниц ИИ подбирает подходящие гостиницы. Но, как писала New York Times:
«Он не достигает уровня, например, квалифицированного агента в бронировании семейной поездки в Диснейуорлд. Человек более находчив – скажем, зная, что семья хочет сфотографироваться с детьми на фоне замка Золушки, посоветует забронировать столик для завтрака до открытия ворот парка»
[71].
Из приведенного примера очевидно, что машине проще применить измеримое суждение (то есть наличие свободных номеров и цену), чем понять неявные предпочтения. Однако Lola может научиться прогнозировать действия опытных агентов. Вопрос в том, сколько прогностической машине требуется получить обратной связи от людей, бронирующих отпуск в Орландо, чтобы узнать достаточное количество соответствующих критериев. И хотя не все из них подвластны ИИ, Lola выяснила решения агентов, которые они не могли бы описать заранее, такие как предпочтение отелей современного типа или, например, расположенных на перекрестке центральных дорог.
Люди, обучающие ИИ, помогают ему совершенствоваться, и постепенно необходимость участия человека во многих аспектах задачи отпадает. Это особенно важно в автоматизации процессов, где ошибки недопустимы. Человек исправляет их, отслеживая действия ИИ. Но со временем ИИ научится на своих ошибках, и человек ему больше не понадобится.
Еще один пример – стартап X.ai, электронный помощник для составления рабочего расписания и занесения планируемых встреч в календарь
[72]. Он («Эми» или «Эндрю» – на ваш выбор) взаимодействует с пользователем и всеми, с кем тот желает встретиться, по электронной почте. Например, можно отправить письмо Эндрю, чтобы он организовал встречу с мистером Х в следующий четверг. X.ai проверяет ваш служебный календарь и отправляет мистеру Х письмо. Мистер Х, скорее всего, не догадается, что Эндрю – не человек. Таким образом, вы освобождены от задачи договариваться с мистером Х или его ассистентом (который теоретически тоже может оказаться Эми или Эндрю).
Конечно, если в расписании случатся накладки или цифровой ассистент ненароком обидит приглашенного, это грозит катастрофой. Несколько лет обучением X.ai занимались люди, они проверяли и утверждали письма ИИ. Каждый раз, когда ошибку исправляли, ИИ учился
[73]. Роль человека сводилась не только к обучению цифрового ассистента вежливости. Ему приходилось иметь дело с попытками других людей сбить его с толку
[74]. Что касается переписки, вопрос, насколько возможно автоматизировать прогнозирование суждения, пока остается открытым.