Для прогностических машин точного определения «приемлемого уровня» нет, есть лишь компромиссы. К ним нужен стратегический подход и серьезное отношение, тогда использование прогностических машин приведет к успеху.
Какая погрешность допустима с точки зрения людей? Для одних прогностических машин большая, для других – маленькая. Скажем, приложение Google Inbox читает письма, с помощью ИИ прогнозирует ответ и предлагает на выбор три варианта. Судя по отзывам, большинству пользователей приложение нравится, хотя в 70 % случаев оно ошибается (на момент написания книги годными оказываются только 30 % вариантов ответов ИИ). Люди терпимо относятся к этому, потому что плюсы от того, что не нужно сочинять и печатать письмо, перевешивают минусы забитого пространства экрана, когда прогнозируемый ответ неправилен.
А вот в автономном вождении мы не так толерантны к ошибкам. Первое поколение беспилотных транспортных средств, в основном производства Google, обучали профессиональные водители. Для этого они проехали на них сотни тысяч километров – как родители с неопытными подростками за рулем.
Водители-профессионалы обеспечивают безопасные условия обучения, но дают ограниченную информацию; машина узнает только о нескольких ситуациях. Люди наезжают миллионы километров в различных условиях и положениях, прежде чем научатся реагировать на редко наступающие обстоятельства, приводящие к несчастным случаям. Беспилотные автомобили на реальных дорогах могут попасть в созданные людьми неприятные ситуации, когда ошибка дорого стоит.
Насколько важно собирать данные о реальных пользователях? Зная, что обучение может длиться недопустимо долго, Tesla по максимуму оснастила все новые модели функциональными возможностями, в том числе датчиками сбора информации и данных о движении, загружаемых на сервер машинного обучения. Tesla может собрать обучающие данные за очень короткий срок, просто наблюдая за действиями водителя. Чем больше машин Tesla ездит по дорогам, тем быстрее они учатся.
Однако помимо пассивно собранных данных об управлении человеком Tesla необходимы данные по беспилотному управлению для понимания работы автономных систем. Чтобы оценить эффективность машин, они должны ездить самостоятельно; также требуется проанализировать случаи, когда человеку, чье присутствие и внимание необходимо, приходится вмешаться. Конечная цель Tesla – полностью автономный автомобиль, а не второй пилот или подросток, которому нужен присмотр. И она будет достигнута, когда пассажиры начнут чувствовать себя в нем спокойно.
Здесь опять следует искать компромисс. Чтобы совершенствоваться, машины Tesla должны учиться в реальных обстоятельствах, однако выпускать их в нынешнем состоянии на дороги – все равно что посадить за руль юного и неопытного водителя, пусть он даже не хуже большинства молодежи в автомобилях. Это более рискованно, чем бета-тестирование восприятия речи Siri и Alexa или степень правильности ответа, составленного Google Inbox. В этих случаях ошибка приводит только к негативному опыту пользователя, а в беспилотниках она может стоить жизни.
На дорогах ничего не стоит испугаться
[138]. Машины неожиданно выезжают с трассы или тормозят, когда водителю померещится препятствие. Слабонервные люди могут отказаться от беспилотной функции и тем самым не дадут Tesla учиться. Даже если компании удастся привлечь кого-либо к бета-тестированию, правильно ли она выберет кандидатов? Ведь кто-то из них может оказаться более склонным к риску, чем среднестатистический водитель. И какой он подаст пример машине?
Чем больше данных, тем быстрее учатся машины, а где их брать, как не в реальном мире? Однако не исключены проблемы, которые могут повредить имиджу компании. Ранний выпуск продукта способствует обучению, но создает риск потери репутации (также могут пострадать клиенты). Поздний выпуск замедляет обучение, зато дает больше времени на улучшение продукта и не повредит репутации (и клиенты будут целее).
Для таких продуктов, как Google Inbox, компромиссное решение очевидно, поскольку издержки от низкой эффективности малы, а плюсы от обучения в процессе использования существенны. Такие продукты есть смысл выпускать пораньше. В других случаях, например с автомобилями, все не так просто. Чем больше компаний во всех отраслях будут пользоваться преимуществами машинного обучения, тем понятнее станут стратегии принятия компромиссных решений.
Обучение на симуляторах
Использование моделируемой среды для обучения упрощает поиск компромиссного решения. Пилоты сотни часов проводят за сложными реалистичными симуляторами, прежде чем им доверят управлять настоящим самолетом. Такой же подход применим к ИИ. Google учила ИИ AlphaGo компании DeepMind побеждать лучших мировых игроков в го, не только показывая ему тысячи поединков между людьми, но в игре с другой версией себя.
Одна из форм этого метода называется состязательным машинным обучением. В нем основной ИИ выступает против другого ИИ, мешающего первому в достижении поставленной цели. Например, в исследовании Google один ИИ отправлял зашифрованные сообщения другому. У обоих ИИ был ключ к шифру. Третий ИИ (их соперник) тоже получал сообщения, но у него не было ключа, и он пытался сам заниматься дешифрованием. В многочисленных симуляциях соперник научился кодировать сообщения
[139].
В реальных условиях такое обучение невозможно. Оно проводится в лаборатории, где создается новый алгоритм машинного обучения, который затем копируется и отправляется пользователям. Его преимущества заключаются в отсутствии риска негативного пользовательского опыта или угрозы жизни. Минусы же в том, что моделируемая среда не обеспечивает достаточного объема обратной связи и снижает, но не устраняет необходимость раннего выпуска. В конце концов ИИ придется «отпустить» в реальный мир.
Машинное обучение в облаке и на устройстве
ИИ совершенствуется в реальности, результаты используются для улучшения прогнозов. Как правило, компании собирают данные реальных условий для улучшения машины до выпуска обновленной прогностической модели.
Автопилот Tesla не учится на практике с реальными клиентами. В процессе езды он отправляет данные в облако Tesla, где они накапливаются и используются для обновления автопилота. Затем выпускается следующая версия. Обучение происходит в облаке.
Такой стандартный подход хорош тем, что пользователи защищены от плохо обученных версий. Но у него есть и минусы – обычно ИИ находится на устройстве и не может учитывать быстро меняющиеся местные условия до тех пор, пока их не внесут в обновление; с точки зрения пользователя, улучшения происходят рывками.