Книга Искусственный разум и новая эра человечества, страница 14. Автор книги Генри Киссинджер, Дэниел Хаттенлокер, Эрик Шмидт

Разделитель для чтения книг в онлайн библиотеке

Онлайн книга «Искусственный разум и новая эра человечества»

Cтраница 14

ИИ, о которых мы рассказывали до сих пор, умели находить решения: победу в шахматной партии, искомое лекарство, осмысленный перевод с иностранного языка. Отдельная область – создание новых текстов, изображений, звуков и т. п. На это способна другая технология – генеративные нейронные сети. Сначала они обучаются на основе существующих текстов или изображений, а затем создают новые тексты или изображения – искусственные, но реалистичные. Если стандартная нейронная сеть может распознать изображение человеческого лица, то генеративная сеть может создать подобное изображение, которое будет выглядеть как реальное. Это концептуально новая технология.

Перспективы применения генеративных нейронных сетей поражают воображение. Настроив такую сеть на создание программного кода или оригинальных текстов, автор может задать общую структуру, которую генеративная нейросеть заполнит деталями. Можно будет поручать таким нейросетям создавать, например, финальные тексты, рекламные ролики и фильмы на основе исходных материалов. Серьезная опасность кроется в возможности создания так называемых цифровых фабрикаций (deep fake) – неотличимых от реальности изображений людей, которые делают или говорят то, что реальные люди никогда не делали и не говорили. В перспективе генеративные нейросети могут значительно обогатить наше информационное пространство, но, если не контролировать эту деятельность, она может существенно размыть границу между реальностью и вымыслом.

Распространенный алгоритм обучения таких моделей – генеративно-состязательные сети (generative adversarial network, GAN). В них генеративная модель, которая генерирует образцы, соревнуется с дискриминаторной моделью, которая борется с созданием некачественных вариантов. Представьте, например, что генератору поручено проводить мозговые штурмы, а дискриминатору – оценить, какие из проведенных мозговых штурмов оказались полезны и результативны. Генеративная и дискриминаторная модели обучаются попеременно: сначала генеративная модель тренирует дискриминаторную, затем наоборот.

Обучение GAN может быть довольно сложным, оно выполняется на огромных объемах данных и часто дает плохие результаты, но ИИ, созданные с их помощью, могут решать замечательные задачи. ИИ, обученные с помощью GAN, могут дописывать начатые предложения (например, при составлении электронных писем) или дополнять запросы для поисковых систем. В перспективе такие ИИ, возможно, научатся завершать недописанные программы.

Одним из наиболее примечательных генеративных ИИ является GPT-3, упомянутый в главе 1 (другие генеративные модели могут создавать неотличимые от реальности изображения или видео). GPT-3 расширяет подход, который оказался таким удачным в машинном переводе. Взяв несколько слов, GPT-3 обнаруживает закономерности в идущих друг за другом элементах текста, после чего предсказывает и генерирует последующие элементы. Несколько слов GPT-3 может экстраполировать в предложение, а предложение – в абзац.

Обученные на массивах данных, взятых в основном из интернета, трансформирующие ИИ также могут преобразовывать текст в изображения и наоборот, расширять или сокращать описания и т. д. Иногда продукция GPT-3 и аналогичных ИИ кажется высокоинтеллектуальной, иногда – глупой или совершенно непонятной. Но в перспективе такие системы могут изменить многие области, включая творческие. Поэтому они вызывают большой интерес исследователей и разработчиков, изучающих их сильные стороны, ограничения и возможности применения.

Машинное обучение не просто расширило возможности применения ИИ – оно произвело революцию даже в тех областях, в которых люди ранее успешно обходились без ИИ. Именно методы машинного обучения позволили открыть совершенно новые шахматные стратегии. Разумеется, способность ИИ к открытиям не ограничивается играми. Как уже упоминалось, компания DeepMind создала ИИ, который понизил энергозатраты дата-центров Google на 40 % после того, как они уже были оптимизированы отличными инженерами-людьми. Это означает, что такие ИИ не просто выполняют тест Тьюринга, показывая продуктивность, неотличимую от человеческой, – они выходят за его рамки, превосходя человеческую производительность и раздвигая границы нашего понимания. Такие достижения означают, что ИИ и дальше будет учиться решать новые задачи и спектр его применения будет расти – возможно, он действительно будет писать оригинальные тексты и разрабатывать программные коды.

Разумеется, чем мощнее становится технология и чем больше она распространяется, тем чаще ее преимущества сопровождаются проблемами. Наглядный пример – персонализация поиска. В главе 1 мы описали, чем отличается интернет-поиск, управляемый ИИ, от обычного интернет-поиска – первый может ограничить поле зрения пользователя предложениями только дизайнерской одежды, в то время как второй познакомит его с полным ассортиментом, доступным для приобретения в интернете. Поисковая система подстраивается под конкретного пользователя двумя способами: 1) получив запрос вроде «чем заняться в Нью-Йорке», ИИ может генерировать идеи, такие как «прогулка по Центральному парку» или «посещение бродвейских шоу»; 2) ИИ может запоминать как историю запросов, так и ответные идеи. Со временем он будет конкретизировать эти идеи, делая их (теоретически) все более полезными для пользователей. Онлайн-кинотеатры выполняют подобную задачу, используя ИИ, чтобы сделать телевизионные шоу и фильмы более подходящими для зрителей, которые хотели бы смотреть, например, более позитивные фильмы. Это путь к расширению возможностей. Такой ИИ будет прятать от детей взрослый контент и сможет рекомендовать им программы, соответствующие их возрасту и вкусам. Такой ИИ будет беречь всех зрителей от жесткого контента или слишком откровенных фильмов или историй, оскорбляющих чувства, – в зависимости от того, какие выводы о предпочтениях пользователей сделают алгоритмы, анализируя их предшествующие действия. По мере того как ИИ будет изучать аудиторию, он будет добиваться все более положительных результатов – например, онлайн-кинотеатры будут с большей вероятностью рекомендовать своим подписчикам именно те фильмы и сериалы, которые их заинтересуют, а не те, которые их оскорбят или смутят.

То, что такая фильтрация может помочь, нам всем уже знакомо на практике. Находясь в другой стране, мы можем нанять гида, который покажет нам те исторические места или достопримечательности, которые в большей степени соответствуют нашей религии, национальности или профессии. Это может превратиться в своего рода цензуру – ведь такой экскурсовод, вероятно, будет избегать трущоб или районов с высоким уровнем преступности. В авторитарных странах гиды могут показывать туристам только то, что разрешено правящим режимом. Что же касается киберпространства, то в нем такая фильтрация возникает и развивается сама по себе. Как только алгоритмы, персонализирующие поиск, начинают отбирать для нас новости, книги и другие источники информации, они неизбежно начинают педалировать одни темы и скрывать другие. В результате будут расти изоляция пользователей друг от друга и разногласия между ними. Реальность одного пользователя будет отличаться от реальности другого, реальность которого будет совсем непохожа на реальность третьего, – этот парадокс мы рассмотрим более детально в главе 6.

Чем шире будет распространяться ИИ, тем больше он будет создавать рисков, и по мере развития ИИ необходимо учиться управлять этими рисками.

Вход
Поиск по сайту
Ищем:
Календарь
Навигация