Книга Неизбежно, страница 14. Автор книги Кевин Келли

Разделитель для чтения книг в онлайн библиотеке

Онлайн книга «Неизбежно»

Cтраница 14

Сейчас самое время выразить обоснованный скептицизм. На протяжении почти 60 лет исследователи искусственного разума предсказывали скорое его появление, и тем не менее вплоть до недавнего времени это оставалось таким же нереальным, как и раньше. Даже появился специальный термин для описания скромных результатов исследований и еще более скудного финансирования этой области: «зима искусственного интеллекта» {31}. Неужели что-то изменилось с тех пор?

Да. Три недавних научно-технических прорыва сделали потенциально возможным появление искусственного интеллекта.

1. Дешевые параллельные вычисления

Мышление – по природе параллельный процесс. Миллиарды нейронов головного мозга одновременно активируются для создания синхронных волн вычислительного процесса {32}. Для формирования нейронной сети – основной архитектуры программного обеспечения искусственного интеллекта – также требуется параллельное протекание многих процессов. Каждый узел этой сети приблизительно имитирует нейронную клетку человеческого мозга, взаимодействующую с соседними клетками для правильной интерпретации получаемых сигналов. Для распознавания произнесенного слова программа должна услышать все фонемы так, как они соотносятся друг с другом. Для распознавания изображения программа должна увидеть все точки так, как они соотносятся с соседними. В обоих случаях эти задачи реализуются параллельно. Однако до недавнего времени обычный процессор вычислительной машины мог одномоментно выполнять только одну задачу.

Ситуация начала меняться чуть больше десяти лет назад, когда для повышенных требований видеоигр, в которых миллионы пикселей одного изображения должны многократно вычисляться за одну секунду, был разработан графический процессор (GPU).

Для этого потребовалась специализированная микросхема для параллельной вычислительной обработки, которая была добавлена в качестве приложения к материнской плате РС. Графический процессор доказал свою эффективность, и популярность видеоигр взлетела. К 2005 году графические процессоры производились в таких количествах и стали такими дешевыми, что фактически превратились в товар массового потребления. В 2009 году Эндрю Ын и команда ученых Стэнфордского университета поняли, что микросхемы графического процессора могут обеспечить параллельную работу нейронных сетей {33}.

Это открытие дало шанс реализовать новые возможности для сетей, между узлами которых могут существовать сотни миллионов связей. У традиционных процессоров уходило несколько недель на вычисление всех каскадных возможностей в нейронной сети со 100 миллионами параметров. Эндрю Ын обнаружил, что кластер, состоящий из графических процессоров, мог справиться с аналогичной задачей за сутки. Сегодня нейронные сети, действующие на основе графических процессоров {34}, повсеместно используются компаниями, занятыми в области облачных технологий, например компания Facebook использует их для определения ваших друзей на фотографиях, а Netflix – для адекватных рекомендаций пользователям, которых больше 50 миллионов.

2. Большие данные (big data)

Любой интеллект нуждается в обучении. Человеческому мозгу, генетически настроенному на категоризацию объектов, нужно получить десяток примеров (что происходит в детском возрасте), прежде чем он сможет отличать кошек от собак {35}. В еще большей степени это относится к искусственному интеллекту. Даже отлично запрограммированному компьютеру требуется сыграть хотя бы тысячу партий в шахматы, прежде чем он начнет показывать хороший результат {36}. Прорыв в области развития искусственного интеллекта частично связан с лавинообразным ростом объема информации о современном мире, так как именно она становится основой для его обучения. Огромные базы данных, самоотслеживание, cookie-файлы, присутствие в интернете, возможность хранения терабайтов данных, десятилетия ответов на поисковые запросы, интернет-энциклопедия «Википедия» и вся цифровая виртуальная реальность стали средствами обучения для искусственного интеллекта. Эндрю Ын говорит: «Развитие искусственного интеллекта сродни строительству космического корабля {37}. Нужен мощный двигатель и много топлива. Ракетный двигатель – это алгоритм обучения, а топливо – это огромный объем данных, который требуется для работы этого алгоритма».

3. Более эффективные алгоритмы

Цифровые нейронные сети были изобретены в 1950-х годах, но у специалистов в области теории вычислительных машин и систем ушло несколько десятилетий, чтобы понять, как «приручить» астрономически огромные комбинаторные взаимоотношения между миллионами – или сотней миллионов – нейронов. Задача состояла в том, чтобы организовать нейронные сети в слои. Возьмем, например, относительно простую задачу распознавания того, что лицо – это лицо. Когда группа элементов в нейронной сети узнаёт определенный образец, например изображение глаза, этот результат («Это глаз!») передается на уровень выше, где уже может произойти совмещение двух глаз, и этот кусок значимой информации передастся на следующий уровень иерархической структуры, где он соотносится со следующим образцом, например носом. Для узнавания лица человека может потребоваться несколько миллионов этих узлов (каждый из которых производит вычисления, использующиеся соседними узлами), организованных в многоуровневую систему, вплоть до 15 уровней. В 2006 году известный своими исследованиями в области искусственных нейросетей британский информатик Джеффри Хинтон {38}, работавший на тот момент в Университете Торонто, внес ключевую поправку в этот метод, который он назвал «глубинное обучение» {39}. Ему удалось математически оптимизировать результаты на каждом уровне, чтобы процесс обучения продвигался быстрее по мере перехода от одного слоя к другому. Несколько лет спустя алгоритмы глубинного обучения невероятно ускорились, когда их перенесли на графические процессоры. Сам по себе код глубинного обучения недостаточен для генерации сложного процесса логического мышления, тем не менее он представляет собой основной компонент всех действующих искусственных интеллектов, включая суперкомпьютер Watson от IBM, искусственный разум от DeepMind, поисковую систему Google и алгоритмы работы, которые использует Facebook.

Вход
Поиск по сайту
Ищем:
Календарь
Навигация