Книга Совместимость. Как контролировать искусственный интеллект, страница 13. Автор книги Стюарт Рассел

Разделитель для чтения книг в онлайн библиотеке

Онлайн книга «Совместимость. Как контролировать искусственный интеллект»

Cтраница 13

Предположим, однако, что нам удалось создать правильное программное обеспечение для ИИ. Налагает ли физика какие-либо ограничения на возможную мощность компьютера? Помешают ли нам эти ограничения получить достаточную вычислительную мощность, чтобы создать настоящий ИИ? Как представляется, ответы на эти вопросы: да, пределы существуют, и нет, отсутствует даже тень вероятности, что эти пределы не позволят нам создать настоящий ИИ. Физик МТИ Сет Ллойд оценил ограничения компьютера размером с ноутбук, исходя из квантовой теории и энтропии [46]. Результаты заставили бы даже Карла Сагана удивленно поднять брови: 1051 операций в секунду и 1030 байт памяти, или приблизительно в миллиард триллионов триллионов раз выше скорость и в 4 трлн раз больше память, чем у Summit — компьютера, который, как было указано, превосходит мощностью человеческий мозг. Таким образом, заявив, что ум человека способен определить верхнюю границу физически достижимой вычислительной мощности в нашей Вселенной [47], нужно, по крайней мере, пояснить эту мысль.

Помимо ограничений, налагаемых физическими законами, существуют пределы возможностей компьютеров, о которых можно узнать из работ специалистов по компьютерам. Сам Тьюринг доказал, что некоторые задачи не решаемы никаким компьютером: задача хорошо поставлена, у нее есть решение, но невозможен алгоритм, который всегда находил бы ответ. Он привел пример так называемой проблемы остановки: может ли алгоритм решить, что данная программа имеет «бесконечный цикл», который не позволит ей когда-либо закончиться? [48]

Предложенное Тьюрингом доказательство того, что никакой алгоритм не может решить проблему остановки [49], невероятно важно для основ математики, но, как представляется, никак не связано с вопросом о том, могут ли компьютеры быть интеллектуальными. Одна из причин этого утверждения заключается в том, что то же базовое ограничение, судя по всему, применимо и к мозгу человека. Предложив человеческому мозгу создать точную модель себя, моделирующего себя, моделирующего себя и т. д., вы загоняете себя в тупик. Лично меня никогда не беспокоило то, что я на это не способен.

Таким образом, сосредоточение на решаемых задачах вроде бы не налагает никаких ограничений на ИИ. Оказывается, однако, что решаемая — не значит простая. Специалисты в области компьютерных наук много размышляют о сложности задач, то есть о том, какой объем вычислений необходим, чтобы решить задачу самым эффективным методом. Вот простая задача: найдите в списке из 1000 чисел наибольшее. Если на проверку любого числа требуется одна секунда, то решение этой задачи очевидным методом — проверять каждое число по очереди, запоминая наибольшее, — потребует 1000 секунд. Возможен ли более быстрый метод? Нет, потому что, если метод не проверит какое-нибудь число из списка, это число может оказаться наибольшим и метод потерпит неудачу. Итак, время поиска самого большого элемента пропорционально длине списка. Специалист по компьютерам сказал бы, что эта задача имеет линейную сложность, что означает, что она очень проста; затем он попробовал бы найти что-нибудь более интересное.

Теоретиков-компьютерщиков восхищает факт, что многие задачи, как представляется [50], в худшем случае имеют экспоненциальную сложность. Из этого следует, что, во-первых, все алгоритмы решения этих задач, о которых нам известно, требуют экспоненциального времени — а именно, количество времени растет по экспоненте с размером входных данных; во-вторых, все теоретики в области компьютерных наук совершенно уверены, что более эффективных алгоритмов не существует.

Экспоненциальный рост трудности означает, что задачи могут быть решаемыми в теории (то есть они, безусловно, разрешимы), но иногда неразрешимыми на практике; мы называем такие задачи неразрешимыми. Примером служит задача принятия решения, можно ли раскрасить данную карту только тремя цветами так, чтобы никакие два соседних участка не были одного цвета. (Хорошо известно, что раскрашивание четырьмя цветами всегда возможно.) Если участков миллионы, может оказаться, что бывают случаи (не все, но некоторые), требующие порядка 21000 этапов вычислений для поиска ответа, на что потребуется около 10275 лет работы суперкомпьютера Summit или 10242 лет ноутбука Сета Ллойда, созданного на пределах законов физики.

Дает ли существование неразрешимых проблем какие-то основания думать, что компьютеры не могут быть столь же интеллектуальны, что и люди? Нет. Нет причин полагать, что люди смогли бы решить нерешаемые задачи. Немного помогают квантовые вычисления (будь то в машине или в мозге), но этого недостаточно, чтобы изменить базовый вывод.

Сложность заключается в том, что проблема принятия решения в реальном мире — когда нужно определиться, что сделать прямо сейчас, в каждый момент жизни индивида, — настолько трудна, что ни люди, ни компьютеры никогда не смогут приблизиться к идеальным решениям.

Отсюда имеется два следствия. Во-первых, мы предполагаем, что в основном решения в реальном мире будут в лучшем случае наполовину обоснованными и определенно далеки от оптимальных. Во-вторых, мы предполагаем, что ментальная архитектура людей и компьютеров — то, как в действительности протекают процессы принятия ими решений, — в огромной мере будет ориентирована на преодоление сложности, то есть позволит находить хотя бы наполовину обоснованные ответы, несмотря на избыточную сложность мира. Наконец, мы ожидаем, что первые два следствия останутся истинными, какими бы интеллектуальными и мощными ни были некоторые машины будущего. Машина может уметь намного больше нас, но все равно ей будет далеко до идеальной рациональности.

Вход
Поиск по сайту
Ищем:
Календарь
Навигация