Однако обещанного быстрого прорыва не произошло, а в 1969 году Марвин Минский и Сеймур Пейперт опубликовали сокрушительную критическую работу под названием Perceptrons: An Introduction to Computational Geometry («Перцептроны: введение в вычислительную геометрию»)
[186]. Они математически доказали, что проект Розенблатта не способен выполнять некоторые базовые задачи классификации. Для большинства исследователей искусственного интеллекта этого было достаточно, чтобы отвернуться не только от перцептронов, но и от более широкой концепции нейронных сетей и машинного обучения в целом. Зима опустилась на оба лагеря исследователей искусственного интеллекта.
ВЕРНОСТЬ ПЕРЦЕПТРОНАМ ПРИНОСИТ РЕЗУЛЬТАТ
Несколько групп ученых все-таки продолжали заниматься машинным обучением, будучи убеждены, что правильный способ заставить компьютеры думать по образцу человека – это построить на основе модели мозга нейронные сети, способные учиться на примерах. Исследователи поняли, в чем заключались ограничения перцептрона, и преодолели их, комбинируя сложную математику, все более мощное аппаратное обеспечение и прагматичный подход, который позволял им вдохновляться тем, как работает мозг, но не ограничиваться этим. Например, в нейронах мозга электрические сигналы текут только в одну сторону, а в успешных системах машинного обучения, построенных в 1980-е годы Полом Уэрбосом
[187], Джеффом Хинтоном
[188], Яном Лекуном
[189] и другими, информация могла проходить по сети в обоих направлениях.
Это «обратное распространение»
[190] обеспечило значительное улучшение работы, однако прогресс происходил безнадежно медленно. К 1990-м система машинного обучения, разработанная Лекуном для распознавания чисел, была способна прочитать до 20 процентов всех рукописных банковских чеков в США
[191], но другого практического применения ей не нашлось.
Как показывает недавняя победа AlphaGo, сейчас ситуация совершенно другая. Поскольку AlphaGo использовала эффективный поиск по огромному количеству возможностей – классический элемент систем искусственного интеллекта, основанных на правилах, – она, по сути, была системой машинного обучения. Как пишут ее создатели, AlphaGo – «новый подход к компьютеру, играющему в го, который использует… глубокие нейронные сети… обучаемые новаторским сочетанием контролируемого обучения с помощью игр с экспертами-людьми и обучения с подкреплением через игры с собой»
[192].
AlphaGo неединичный случай. В последние годы мы видим расцвет нейронных сетей. Сейчас они, бесспорно, доминирующая форма искусственного интеллекта и, вероятно, некоторое время останутся на лидирующих позициях. Эта область искусственного интеллекта наконец выполняет хотя бы некоторые из тех обещаний, что нам когда-то давали ученые.
Итак, почему у нас есть искусственный интеллект?
Что стало причиной этого взлета и почему он оказался таким быстрым и неожиданным? Как часто бывает в случае прогресса, здесь соединилось несколько факторов, и определенную роль сыграли упорство разработчиков и счастливая случайность. Многие специалисты считают, что единственным важным фактором был закон Мура. По мере увеличения размера нейронные сети становятся намного более мощными и производительными, и только недавно по-настоящему крупные сети стали достаточно дешевы, чтобы быть доступными для большого числа ученых.
Исследователи с небольшим бюджетом также получили доступ к изучению искусственного интеллекта с помощью облачных вычислений. По словам предпринимателя Эллиота Тёрнера, к осени 2016 года вычислительные мощности, необходимые для осуществления передового проекта машинного обучения, можно было получить у провайдера облачных сервисов, например Amazon Web Services, в среднем за 13 тысяч долларов
[193]. Как ни странно, рост популярности видеоигр также стал значительным толчком для машинного обучения. Оказалось, что специализированные графические процессоры, которые установлены в современных игровых приставках, хорошо подходят к типам вычислений, нужным для нейронных сетей, так что эти устройства в больших количествах привлекаются для выполнения таких задач. Исследователь искусственного интеллекта Эндрю Ын
[194] сказал нам: «Ведущие группы делают с помощью графических процессоров такие безумно сложные вещи, каких я не мог вообразить два-три года назад»
[195].
Появление больших данных – то есть недавнее взрывообразное увеличение количества цифрового текста, изображений, звуков, видео, показаний датчиков и тому подобного – было почти таким же важным для машинного обучения, как и закон Мура. Подобно тому как ребенок для изучения языка должен слышать множество слов и предложений, системам машинного обучения нужно иметь множество примеров, чтобы улучшать распознавание речи, классификацию изображений и решать другие задачи
[196]. Сейчас данные поступают, по сути, непрерывно, причем их становится все больше. Системы типа тех, что создали Хинтон, Лекун, Ын и другие, обладают весьма полезным свойством: чем больше примеров они видят, тем лучше работают. Хинтон сказал с определенной скромностью: «Если посмотреть назад, то [успех в машинном обучении] был просто вопросом количества данных и количества вычислений»
[197].