Книга Что мы думаем о машинах, которые думают. Ведущие мировые учёные об искусственном интеллекте, страница 34. Автор книги Джон Брокман

Разделитель для чтения книг в онлайн библиотеке

Онлайн книга «Что мы думаем о машинах, которые думают. Ведущие мировые учёные об искусственном интеллекте»

Cтраница 34

Когда у вас нет большого количества данных, то есть когда вам приходится строить допущения на основе ограниченных сведений, строгость важнее. Под руководством грамотных инженеров компьютерам проще делать разумные предположения. Когда у вас много данных, важнее оказывается гибкость. Здесь вам уже не нужно, чтобы система ограничивалась только теми идеями, которые смогли найти инженеры, если у вас достаточно данных для того, чтобы позволить компьютеру предложить идеи получше. Так что системы машинного обучения, в которых упор сделан на гибкость, как в искусственных нейронных сетях, успешнее всего справляются с задачами, в которых доступны большие объемы данных.

Мысль о том, что наличие большего количества информации способствует большей гибкости, дает ответ на два наших вопроса об искусственном и естественном интеллекте. Мыслящие машины должны иметь сходство с мозгом — в той мере, в которой с ним сходны искусственные нейронные сети, — когда решаемая проблема такова, что гибкость важнее структуры, а данных хватает с избытком. Если же посмотреть на вопрос с другой стороны, то можно заметить, что это полезно для понимания, чем настоящий мозг похож на искусственные нейронные сети, то есть какие аспекты человеческого разума лучше рассматривать как результат алгоритмов общего обучения, где акцент сделан на гибкость, а не на строгость, в противоположность результату, основанному на «встроенных» априорных суждениях о мире и о том, что в нем есть. По существу, ответ будет определяться объемом доступных данных и сложностью того, что надо выяснить.

Значительная часть полемики в области когнитивистики, например о том, как дети учат язык и обретают способность интерпретировать действия других людей, сводится как раз к этим вопросам: о доступных данных и приобретаемом знании. Чтобы ответить на них, мы пытаемся зафиксировать входные данные системы (что дети слышат и видят), описать результат (что такое язык, какое знание лежит в основе социального познания) и исследовать различные виды алгоритмов, которые могли бы обеспечить переход от первого ко второму.

Ответы на эти вопросы относятся не только к пониманию нашего собственного разума. Несмотря на последние достижения в области искусственного интеллекта, человеческие существа все еще остаются лучшим из имеющихся у нас примеров разумных машин. Определив объем и природу априорных суждений, которые формируют наше познание, мы заложим основу для того, чтобы сделать компьютеры более похожими на людей в плане эффективности выполнения определенных задач.

Они принесут больше пользы, чем вреда

Марк Пэйгл

Преподаватель эволюционной биологии в Университете Рединга, Великобритания; приглашенный преподаватель комиссии по науке Института Санта-Фе; автор книги «Культурная прошивка: Происхождение человеческого социального сознания» (Wired for Culture: Origins of the Human Social Mind)

Нет никаких причин думать, что если машины станут более разумными — а такой разум, как у нас, пока что мало отличается от рисунков на песке, — то они озлобятся, начнут плести интриги, окажутся эгоистами или даже превратятся в угрозу для людей. Эгоистичность — качество объектов, которые хотят остаться в живых (или, если точнее, хотят размножаться), а не природное свойство машин. Компьютеры не против того, чтобы их выключали, и уж тем более они не боятся этого.

Таким образом, появление полноценного искусственного интеллекта не приведет к гибели рода людского. Это отнюдь не экзистенциальная угроза для человечества (уточню: такое часто встречающееся сейчас использование слова «экзистенциальная» — неверно). Мы не приближаемся к какой-то непонятной апокалиптической сингулярности, а разработка искусственного интеллекта не станет «последним великим событием в истории человечества», хотя некоторые сейчас и утверждают обратное, когда говорят о мыслящих машинах.

На самом деле по мере создания все лучше и лучше думающих машин их можно будет использовать так, чтобы получить намного больше пользы, чем вреда. Машины хорошо справляются с долгой монотонной работой, такой, например, как отслеживание рисков; они хорошо собирают информацию, чтобы принимать решения; они хорошо анализируют данные на предмет обнаружения паттернов и тенденций; они могут помочь нам использовать скудные или загрязняющие среду ресурсы более эффективно; у них реакция быстрее, чем у людей; они могут управлять другими машинами; они не устают и не боятся; они даже способны заботиться о своих хозяевах-людях посредством смартфонов (вспомните приложения Siri и Cortana) или разнообразных навигационных устройств с GPS, которые есть в автомобилях у большинства людей.

Поскольку машины по природе своей скорее подвижники, чем эгоисты, их проще научить сотрудничеству, не боясь, что некоторые из них воспользуются в своих интересах доброй волей других машин. Группы («стаи», «связки», «отряды» или любое другое собирательное существительное, которое со временем появится для их обозначения, — я предпочел бы название «скопления») объединенных в общую сеть и взаимодействующих беспилотных автомобилей будут на высокой скорости и совершенно безопасно двигаться в общем плотном потоке, бампер к бамперу. Они не заснут, не начнут психовать, они смогут сообщать друг другу о своих действиях и о дорожных условиях на расстоянии, они также будут более полно использовать автострады, которые сейчас представляют собой по большей части пустое пространство (вследствие скверной реакции у людей). Они станут это делать с удовольствием, не ожидая вознаграждения, в то время как мы сможем обедать, смотреть фильм или читать газету. У наших детей будет вызывать справедливое удивление тот факт, что раньше автомобили водили люди.

Есть риск, что мы станем опасно зависимы от машин или уже стали, но это больше говорит о нас, чем о них. Точно так же машины могут быть использованы во вред, но опять же это больше говорит не о самих машинах, а об их изобретателях и владельцах. Если продолжить размышления в том же направлении, то есть один вектор человеческого влияния на машины, который нам нужно внимательно контролировать: это возможность объяснить им, что такое смерть. Если им придется конкурировать за ресурсы (такие как электричество или бензин), чтобы выжить, и они научатся менять свое поведение, то они могут стать эгоистичными.

Если мы станем позволять или даже поощрять проявления эгоизма у машин, то они могут в конечном счете стать такими же, как мы: способными на репрессивные или агрессивные действия по отношению к людям и друг к другу. Но это не произойдет в одночасье и без определенных усилий с нашей стороны. То, о что я имею в виду, не имеет никакого отношения к разуму (некоторые вирусы делают с людьми отвратительные вещи) и опять же больше говорит о нас, чем о машинах.

Таким образом, беспокоиться стоит не по поводу роботов или искусственного интеллекта как таковых, но по поводу людей. Нельзя сказать, что мыслящие машины за нас или против нас, у них нет встроенной предрасположенности ни к первому, ни ко второму. Думать иначе — значит путать разумность с устремленностью и сопутствующими ею эмоциями. У нас же все это есть, потому что мы — эволюционирующие и воспроизводящиеся организмы, появившиеся в результате отбора в процессе конкуренции, подчас беспощадной, с другими организмами. Но устремленность — вовсе не обязательная часть разума, даже если она обеспечивает подходящую платформу для его развития.

Вход
Поиск по сайту
Ищем:
Календарь
Навигация