Книга Сверхдержавы искусственного интеллекта , страница 44. Автор книги Кай-фу Ли

Разделитель для чтения книг в онлайн библиотеке

Онлайн книга «Сверхдержавы искусственного интеллекта »

Cтраница 44

Существует мнение, что с появлением СИИ у машин, способных к самосовершенствованию, начнется стремительное развитие компьютерного интеллекта. Это явление часто называют сингулярностью или эрой искусственного сверхразума. Если так и произойдет, мир могут заполнить компьютеры, превосходящие нас в интеллектуальном плане настолько же, насколько мы превосходим насекомых. Столь фантастические предсказания разделили большую часть интеллектуального сообщества на два лагеря: утописты и сторонники антиутопии. Утописты видят в расцвете СИИ и наступлении сингулярности последний рубеж, отделяющий нас от светлого будущего, в котором человечество раздвинет границы сознания и победит смерть. Рэй Курцвейл – эксцентричный изобретатель и крупнейший идеолог Google – считает, что в будущем люди и машины сольются воедино. По его представлению, люди будут «загружать» свой разум в облака и постоянно обновлять ткани тела с помощью специально обученных нанороботов, введенных в кровоток. Курцвейл предсказывает, что к 2029 году мы получим компьютеры с интеллектом, сопоставимым с человеческим (т. е. СИИ), а точка сингулярности будет достигнута к 2045 году [63].

Другие мыслители-утописты видят в СИИ средство, которое позволит нам быстро разгадать тайны Вселенной. Основатель DeepMind Демис Хассабис считает, что с помощью сверхчеловеческого интеллекта мы, наконец, разрешим задачи, казавшиеся неразрешимыми: остановим глобальное потепление и научимся побеждать ранее неизлечимые заболевания. Сверхразумные компьютеры, понимающие Вселенную на немыслимых уровнях сознания, помогут человечеству справиться с его бедами, и люди приблизятся к божественному всеведению и всемогуществу.

Однако не все настроены столь оптимистично. Илон Маск назвал суперинтеллект «самой большой опасностью, с которой мы можем столкнуться как цивилизация» [64], сравнивая его создание с «призыванием демонов» [65]. Многие выдающиеся интеллектуалы, в том числе покойный космолог Стивен Хокинг, присоединились к лагерю антиутопистов Маска, некоторые из них – вдохновившись работой оксфордского философа Ника Бострома, чья книга «Искусственный интеллект. Этапы. Угрозы. Стратегии» [66], вышедшая в 2014 году, захватила воображение значительного числа футуристов.

По большей части сторонники антиутопической версии будущего не боятся, что ИИ захватит мир, как это было показано в фильмах вроде «Терминатора», в которых человекоподобные роботы охотятся на людей, охваченные жаждой поработить человечество. Суперинтеллект будет продуктом, созданным человеком, а не появившимся в результате естественной эволюции, а потому у него не может быть тех инстинктов выживания, размножения или доминирования, которые управляют поведением людей или животных. Скорее всего, он просто будет стремиться достичь поставленных перед ним целей наиболее эффективным способом. Опасность состоит в том, что если люди окажутся препятствием для достижения одной из этих целей – например, обратить вспять глобальное потепление, то суперинтеллект может легко, даже случайно, стереть их с лица земли.

Чтобы сделать это, компьютерной программе, чей разум и воображение намного превосходят человеческие, не потребуется никаких вооруженных роботов. Глубокое понимание химии, физики и нанотехнологий позволит ИИ мгновенно достичь своих целей, используя гораздо более изобретательные способы. Исследователи называют это «проблемой управления» или «проблемой выравнивания значений», и она беспокоит даже тех, кто относится к СИИ с оптимизмом.

Прогнозы о том, когда будут достигнуты такие результаты, сильно расходятся. Бостром в своей книге приводит ответы специалистов по ИИ, которые склоняются к тому, что СИИ появится в 2040 году, а суперинтеллект, скорее всего, – в течение трех десятилетий после этого [67]. Но не будем спешить с выводами.

Проверка в реальных условиях

Когда эти утопические и антиутопические прогнозы обсуждаются публично, то внушают аудитории одновременно благоговение и страх. Постепенно границы между фантастическими картинами и нынешней реальностью в коллективном сознании стираются. В результате возникают распространенные заблуждения о том, на каком уровне мы действительно находимся сегодня и куда движемся. Давайте внесем ясность: ни один из сценариев, описанных выше, будь то бессмертный цифровой разум или всемогущий суперинтеллект, нельзя реализовать на основе современных технологий: ученые пока еще не нашли четких алгоритмов для СИИ и не особенно приблизились к их открытию. Сингулярность не может возникнуть спонтанно, и автономные транспортные средства, в которых используются технологии глубокого обучения, не могут внезапно «проснуться» и понять, что способны объединиться и сформировать сверхразумную сеть.

Создание сильного ИИ потребует целого ряда фундаментальных научных открытий в области искусственного интеллекта, а также многих иных достижений того же масштаба, что и глубокое обучение, или даже более значительных. Эти прорывы помогут убрать основные ограничения узкоспециализированных программ на основе ИИ и наделить их множеством новых способностей. Это, например, мультидоменное и доменно-независимое обучение, понимание естественных языков, здравый смысл, обучение на небольшом количестве примеров, умение строить планы и рассуждать. На следующем этапе, чтобы создать эмоционально-интеллектуальных роботов, нам понадобится каким-то образом дать им самосознание, чувство юмора, любовь и сострадание, способность восхищаться красотой. Из-за сложности этих задач возможности современного ИИ сегодня ограничены выявлением корреляций в среде данных и простым прогнозированием, а создание сильного ИИ все еще выглядит недостижимой целью.

Чтобы решить каждую из задач, перечисленных выше, может потребоваться несколько важных открытий. Ошибка многих прогнозов, касающихся СИИ, заключается в том, что их авторы просто берут темпы прогресса в области ИИ за последнее десятилетие и экстраполируют их или делают вывод о непрестанном экспоненциальном росте компьютерного интеллекта. Сейчас мы пришли к глубокому обучению и активно применяем его во все новых областях – такова эпоха внедрения. Не существует доказательств, что этот процесс знаменует собой начало экспоненциального роста, который неизбежно приведет к появлению СИИ, а затем и суперинтеллекта. Наука требует упорного труда, и фундаментальные прорывы в ней вовсе не следуют один за другим. Достижения такого уровня, как открытие глубокого обучения, которые действительно поднимают планку машинного интеллекта, обычно случаются раз в несколько десятилетий, если не реже. Кропотливая работа позволила исследователям компании DeepMind создать новый, более продуктивный подход к таким технологиям, как обучение с подкреплением. Но за 12 лет после публикации знакового исследования Джеффри Хинтона и его коллег я не слышал о подобного масштаба сдвигах в области машинного интеллекта [68]. Да, опрошенные Бостромом исследователи ИИ считают, что появления СИИ можно ожидать в 2040 году, но, по моему мнению, когда дело касается перехода от теоретических изысканий к реальному продукту, ученые бывают излишне оптимистичны в оценках. В подтверждение приведу пример. В конце 1980-х годов я был ведущим мировым исследователем ИИ в области распознавания речи. И тогда я пришел в Apple, поскольку верил, что через пять лет эта технология станет повсеместно распространенной. Как оказалось, я ошибся на 20 лет. Конечно, я не гарантирую, что ученые не сделают в ближайшее время фундаментальных открытий, которые приведут к появлению сильного ИИ, а затем – суперинтеллекта. Но с уверенностью можно сказать одно: нам стоит рассчитывать в первую очередь на постоянное совершенствование существующих технологий и расширение их функций. Я считаю, что пройдет еще немало десятилетий, если не веков, прежде чем СИИ и суперинтеллект станут реальностью. Существует также объективная вероятность того, что люди так никогда и не смогут создать СИИ. Искусственный интеллект произведет переворот в отношениях между людьми и машинами – многие даже считают, что его появление станет самым выдающимся событием в истории человечества. Но я полагаю, что это грань, которую нам не следует переходить, пока не решены все проблемы, связанные с контролем и безопасностью. Так или иначе, я, как и другие эксперты по ИИ, среди которых Эндрю Ын и Родни Брукс, считаю, что мы гораздо дальше от создания СИИ, чем принято думать.

Вход
Поиск по сайту
Ищем:
Календарь
Навигация