Книга WTF? Гид по бизнес-моделям будущего, страница 57. Автор книги Тим О’Рейли

Разделитель для чтения книг в онлайн библиотеке

Онлайн книга «WTF? Гид по бизнес-моделям будущего»

Cтраница 57

Глубинное обучение использует наслоения распознавателей. Прежде чем вы сможете распознать собаку, вы должны уметь распознавать фигуры. Прежде чем вы сможете распознавать фигуры, вы должны уметь распознавать края, чтобы отличить фигуру от ее фона. Каждый из этих последовательных этапов распознавания дает сжатое математическое представление, которое передается на следующий уровень. Правильное сжатие имеет ключевое значение. Если вы попытаетесь сжать слишком много, вы не сможете отобразить богатство происходящего и у вас появится уведомление об ошибке. Если вы попытаетесь сжать слишком мало, сеть прекрасно запомнит примеры для обучения, но не обобщит должным образом новые материалы.

Машинное обучение использует способность компьютеров очень быстро делать одно и то же или незначительные вариации одного и того же снова и снова. Ян однажды в шутку заметил: «Главная проблема с реальным миром заключается в том, что вы не можете ускорить реальный ход времени». Но компьютеры делают это постоянно. Программа для игры в го на базе искусственного интеллекта AlphaGo, созданная британской компанией DeepMind, в 2016 году победившая одного из лучших игроков в мире, сначала изучила 30 миллионов позиций го из исторических матчей, сыгранных опытными игроками-людьми. Затем она сыграла миллионы игр сама с собой, чтобы еще больше усовершенствовать свой стиль игры.

Машинное обучение стало основной составляющей поиска Google. В 2016 году компания Google анонсировала RankBrain, модель машинного обучения, помогающую определить страницы, которые относятся к теме запроса пользователя, но фактически могут не содержать слова из запроса. Это может быть особенно полезным для запросов, которых никогда не было раньше. По данным компании Google, оценка RankBrain стала третьей по важности среди более чем двухсот факторов, которые она использует для ранжирования страниц.

Google также использует глубинное обучение для перевода на иностранные языки. Результаты настолько разительно улучшились, что после нескольких месяцев тестирования команда прекратила работу над старой системой Google Translate и полностью заменила ее на систему, базирующуюся на глубинном обучении. Она еще не настолько хороша, как люди-переводчики, но она близка к этому, по крайней мере в том, что касается повседневного функционального использования, хотя, возможно, пока не подходит для литературного перевода.

Для Google Фото также используется глубинное обучение. Если вы пользовались сервисом Google Фото, вы видели, как он может распознавать объекты на ваших фотографиях. Введите слово «лошадь», и вы увидите изображения лошадей, даже если они не подписаны. Введите слово «за́мок» или «забор», и вы увидите изображения за́мков или заборов. Это магия.

Не забудьте, что сервис Google Фото делает это по запросу для фотографий более 200 миллионов пользователей для сотен миллиардов фотографий, которые он никогда раньше не видел.

Это называется контролируемым обучением, потому что, несмотря на то что сервис Google Фото не видел ваших фотографий раньше, он видел много других фотографий. В частности, он видел то, что называется учебным набором. В учебном наборе данные промаркированы. «Механический турок» компании Amazon или похожие сервисы используются, чтобы отправлять изображения одно за другим тысячам работников, которым предлагается назвать, что содержит каждое из них, или ответить на вопрос о каком-либо аспекте (например, о цвете), или, как и в случае с учебным набором для Google Фото, просто подписать его.

Amazon называет эти микрозадания хитами (HITs – Human Intelligence Tasks). Каждому задается один вопрос, возможно даже с множеством вариантов ответов: «Какого цвета автомобиль на этом изображении?», «Что это за животное?». Один и тот же хит отправляется множеству работников; когда многие работники дают один и тот же ответ, это, по-видимому, правильно. За каждый хит платят копейки, используя распределенную рабочую силу «экономики свободного заработка», благодаря которой работа водителем Uber выглядит как хорошая работа для среднего класса.

Роль «Механического турка» компании Amazon в обучении – служить напоминанием о том, насколько глубоко переплетаются человеческий и машинный труд в разработке приложений следующего поколения. Мэри Грей, исследователь из Microsoft, которая изучила использование «Механического турка», обратила мое внимание на то, что историю исследований ИИ можно проследить, посмотрев, как менялись хиты, использовавшиеся для создания наборов обучающих данных, с течением времени. (Интересным примером является обновление Руководства Google по определению рейтинга сайтов в начале 2017 года, которое было произведено, по словам Пола Хаара, инженера по ранжированию поисковых систем Google, чтобы создать наборы обучающих данных для алгоритмического обнаружения фальшивых новостей.)

Святой Грааль в сфере ИИ – это неконтролируемое обучение, в ходе которого ИИ самообучается без осуществления тщательной подготовки. Всеобщий восторг вызвало заявление разработчиков DeepMind о том, что их алгоритмы «способны самостоятельно обучаться непосредственно на основе первичного опыта или исходных данных». Компания Google приобрела компанию DeepMind в 2014 году за 500 миллионов долларов, после того как та продемонстрировала ИИ, который научился играть в различные старые компьютерные игры Atari, просто наблюдая за тем, как в них играют.

Вызвавшая широкий общественный резонанс победа AlphaGo над Ли Седолем, одним из лучших игроков в го, стала важным этапом для ИИ: это игра очень сложная, в ней невозможно использовать грубый анализ всех возможных шагов. Но соучредитель DeepMind Демис Хассабис писал: «Мы все еще далеки от создания машины, которая может научиться с легкостью выполнять весь спектр интеллектуальных задач, которые может выполнить человек, что является отличительной чертой настоящего искусственного интеллекта».

Ян Лекун также осадил тех, кто слишком превозносил значимость победы AlphaGo, написав: «Основная часть обучения людей и животных – это неконтролируемое обучение. Если представить интеллект в виде торта, то неконтролируемое обучение будет коржом, контролируемое обучение будет глазурью на торте, а укрепляющее обучение будет вишенкой на торте. Мы знаем, как сделать глазурь и вишенку, но мы не знаем, как сделать корж. Нам необходимо решить проблему неконтролируемого обучения, прежде чем мы сможем хотя бы подумать о создании истинного ИИ».

На данный момент в процесс всегда вовлечены люди, не только в проектирование модели, но и в обработку данных, которые предоставляются модели для обучения. Это может привести к непредвиденной ошибке. Возможно, наиболее важным вопросом в создании ИИ является не разработка новых алгоритмов, а то, как убедиться в том, что наборы данных, при помощи которых мы их обучаем, являются по сути объективными. Книга Кэти О’Нейл «Weapons of Math Destruction» содержит крайне важную информацию по этому вопросу. Например, если бы вам понадобилось подготовить модель машинного обучения для превентивных полицейских мер, основываясь на наборе данных с записями арестов, но не принимая во внимание, что полиция арестовывает людей с темным цветом кожи, а белым говорит «больше не попадайся», то ваши результаты были бы сильно искажены. Для результата гораздо важнее характеристики обучающих данных, чем алгоритм. Неспособность это осознать – сама по себе является необъективностью, с которой будет трудно справиться тем, кто долго изучал информатику до появления машинного обучения.

Вход
Поиск по сайту
Ищем:
Календарь
Навигация