Книга Что мы думаем о машинах, которые думают. Ведущие мировые учёные об искусственном интеллекте, страница 55. Автор книги Джон Брокман

Разделитель для чтения книг в онлайн библиотеке

Онлайн книга «Что мы думаем о машинах, которые думают. Ведущие мировые учёные об искусственном интеллекте»

Cтраница 55

Корпорации, торгующие средствами гигиены, вкладывают миллиарды долларов в рекламные кампании, обыгрывающие опасность бактерий, или продают идею чистоты, которая косвенно апеллирует к социальному статусу. Я могу с уверенностью утверждать, что никто и никогда не придет ко мне в кабинет с предложением рассказать людям о том, как опасен сбежавший из зоопарка тигр.

Поэтому, когда вы думаете об угрозах, которые несут технологии, вы автоматически задействуете инстинкты, выработанные миллион лет назад. Именно поэтому первый прототип беспилотного автомобиля сделали таким чертовски милым — прямо щеночком на колесиках. Он может двигаться только на сравнительно небольших скоростях, он маленький и легкий, а еще он эксплуатирует парейдолии [63] и наши родительские чувства тем, какой он по-детски очаровательный, какие у него большие глазки и маленький носик кнопочкой. Мой внутренний маркетолог в полном восхищении. Именно так бы я и посоветовал поступить: надо сделать эту штуку такой, чтобы ее невозможно было не любить. Даже если эта технология окажется опаснее, чем АК-47, мне будет трудно представить, что я беру в руки топор и уподобляюсь луддитам.

Но вот вопрос: это ментальный патч или ментальный хак? Машина создана такой милой, чтобы нам легко было преодолеть безосновательный природный страх перед технологиями — или чтобы осторожно втереться к нам в доверие? Я не знаю. Недоверие, которое мы испытываем к беспилотным автомобилям, может быть сродни опасениям, что наших детей похитят (высокий уровень выраженности, но низкий уровень вероятности), а может быть и вполне оправданным. Однако уровень тревожности определяется факторами (в том числе и тем, насколько милыми выглядят предметы), которые не особо релевантны уровню опасности.

И это подводит меня ко второму вопросу.

Хоть беспилотный автомобиль и выглядит мило, мы, по крайней мере, осведомлены о возможных рисках. Он нас соблазняет, но мы знаем, что он нас соблазняет. Существуют ли уже такие технологии (в самом широком смысле этого слова), которые соблазнили нас настолько искусно и были приняты нами настолько быстро, что мы можем узнать о связанных с ними рисках, только если возникнет внезапная, непредвиденная и значительная проблема? Что может быть технологическим эквивалентом фитофтороза картофеля?

Наша нынешняя вера в «технологическое провидение» настолько сильна, что все мы можем довольно легко угодить в эту ловушку — увлечься какой-то новинкой и не заметить, как она дает начало чему-то еще, и еще, а потом уже станет слишком поздно. В течение нескольких столетий после изобретения порох использовался не в военных целях, а только для развлечения.

Летчики коммерческих авиалиний регулярно тренируют посадку в ручном режиме, хотя им редко приходится работать без автопилота; так не стоит ли всем нам время от времени сознательно воздерживаться от использования определенных технологий, просто для того чтобы напомнить себе, как можно жить без них, чтобы сохранять технологическое разнообразие и поддерживать в форме наши умственные мускулы, зачахшие без тренировки? Возможно. Но каким должен быть механизм, координирующий подобное поведение в больших группах людей, я не знаю.

Я недавно предложил компаниям устраивать еженедельный «Шаббат без электронной почты», поскольку считаю, что злоупотребление ею ведет к исчезновению других ценных форм взаимодействия. Мы разучиваемся пользоваться другими способами коммуникации. Большинство людей сочли меня безумцем. Несколько сотен лет назад папа римский, или раввин, или архиепископ кентерберийский могли предъявить нам такое требование. Сегодня этого сделать некому.

Я всегда больше боялся ошибок, чем заговоров. В сравнении с угрозой непредвиденных последствий, угроза появления умышленно злонамеренных киборгов настолько мала, что ее пока можно смело оставить на потеху Голливуду.

Машины-актрисы

Брюс Стерлинг

Писатель-фантаст, один из основоположников киберпанка

Поскольку машины не думают, мне нужна метафора получше. «Машины-актрисы» — это выражение подойдет, по крайней мере пока.

Одно из многих моих возражений против термина «искусственный интеллект» состоит в том, что у него совершенно отсутствует «искусственная женственность». У реального интеллекта есть пол, потому что у человеческого мозга он есть. Большинство человеческих мозгов по статистике — женские.

Следовательно, если «интеллектуальность» мозга вычислима по Тьюрингу, тогда и «женственность» мозга тоже должна быть вычислима по Тьюрингу. Если нет, то почему? Можно неосторожно возразить, что женственность-де вещь слишком неопределенная, непонятная и телесная, для того чтобы реализовывать ее в виде программы, но то же будет верно для любой формы мозговой деятельности человека.

У «искусственной мужественности» те же проблемы, потому что мужчины не просто думают, а думают как мужчины. Если мой интеллект можно воспроизвести на определенной вычислительной платформе, но меня при этом придется оскопить, то вся идея окажется спорной. Я что-то не припомню таких энтузиастов искусственного интеллекта, которые вовсю трезвонили бы о преимуществах искусственной кастрации.

У нас уже есть несколько новых сущностей вроде Apple Siri, Microsoft Cortana, Google Now и Amazon Echo. Эти удивительные современные сервисы часто манерничают, разговаривая «женскими» голосами. Они говорят, как тьюринговы женщины, или, вернее, они подают реплики, как актрисы озвучивания. Однако они также дают быстрый доступ к обширным областям комбинаторных больших данных, какими никогда не обладал (и не будет обладать) ни один человек.

Эти сервисы — не отдельные машины Тьюринга. Это аморфные глобальные сети, которые прочесывают облака больших данных, алгоритмически систематизируют ответы от пользователей-людей, выдают результаты в реальном времени через широкополосные беспроводные сети и носят при этом псевдочеловеческие маски, чтобы удовлетворять некие базовые требования к дизайну интерфейса. Вот что они такое. Каждый аспект вымученной метафоры «искусственный интеллект» постоянно мешает нам разобраться в том, как, зачем, где и для кого все это делается.

Apple Siri — не искусственная женщина. Siri — это искусственная актриса, машина-актриса — интерактивное представление с определенным сценарием, служащее интересам корпорации Apple в области продажи музыки, фильмов, предоставления услуг навигации, реализации мобильных приложений и устройств и тому подобных товаров. Siri для Apple и ее экосистемы — это актриса первого плана. Именно ее выхватывает прожектор мобильного устройства, а сама корпорация — это театр, продюсер и рабочие сцены.

Совершенно удивительно, даже восхитительно то, что Siri может одновременно острить с тысячами пользователей Apple, но она не машина, которая становится разумом. Наоборот: в силу веских причин — денег, власти и влияния — Siri неуклонно превращается во что-то вроде полностью интегрированного в бизнес-процессы цифрового имущества Apple. Siri милая, харизматичная и антропоморфная, примерно как диснеевская Минни-Маус в свое время. Так же как Минни-Маус, Siri — это фасад для умной и могущественной калифорнийской корпорации. В отличие от Минни-Маус, она — полностью цифровой мультфильм с миллионами активных пользователей по всему миру.

Вход
Поиск по сайту
Ищем:
Календарь
Навигация