Книга Сердце машины. Наше будущее в эру эмоционального искусственного интеллекта, страница 43. Автор книги Ричард Йонк

Разделитель для чтения книг в онлайн библиотеке

Онлайн книга «Сердце машины. Наше будущее в эру эмоционального искусственного интеллекта»

Cтраница 43

Хотя защита гарантирует гражданские права и свободы во многих демократических странах, остается высокий риск злоупотребления подобными методами наблюдения и допроса. Если это произойдет, то, вероятно, общественное отношение к технологиям чтения эмоций радикально изменится в противоположную сторону. Изменение общественного мнения может привести к полному отказу от использования эмоциональных технологий в подобных целях. Но, как мы уже не раз убеждались, после запрета технологии переходят в теневой сектор, где возможность регулировать их использование практически отсутствует, а потенциал для злоупотребления огромен.

В некоторых государствах соблюдение личных свобод ничем не гарантировано. Самодержец или диктатор с радостью ухватится за средство, с помощью которого он сможет усилить и удерживать власть. Достаточно веские причины для того, чтобы опасаться применения эмоционального программирования в военных целях.

Актуален и вопрос получения разведывательных данных. Опять же может ли технология распознавания эмоций повлиять на правдивость получаемых данных? Повысит ли петля коммуникационной обратной связи их надежность или понизит?

Возможно, мы выходим на новое поле битвы. Будет ли такое оружие морально неуязвимым? Из тех же соображений, по которым подозреваемые в совершении преступлений должны быть защищены при допросе с применением эмоциональных машин, допрос шпионов и военнопленных с применением аффективных технологий также может считаться негуманным отношением. Разум человека – самое личное и самое ценное из всего, что ему принадлежит. Вмешательство в него, насаждение ложных воспоминаний и эффективное переписывание самовосприятия практически равносильно уничтожению личности. Можем ли мы прийти к тому, что нам понадобится Женевская конвенция для защиты военнослужащих от аффективных технологий?

Кроме того, государственный режим способен применить подобные технологии против гражданских, даже против собственного народа. Принимая во внимание перспективу вмешательства в психику, в какой момент закончится пропаганда и начнется нарушение прав человека? Эмоциональное программирование приобретает все больше возможностей и применяется все шире, но есть ли способы технической защиты, которые могут остановить или предотвратить подобные нарушения? Или нам придется полагаться лишь на санкции правоохранительных и управляющих органов?

Наконец, как подобные технологии соотносятся с концепцией свободных и честных выборов? Манипулирование эмоциями уже рассматривается как честная игра в битве за политическую власть, но что произойдет, если манипуляциями будут заниматься машины? Машины, которые могут присутствовать где угодно, в любое время, бесцеремонно принуждая и сдержанно увещевая. Насколько свободными и честными будут выборы, если избиратели не будут уверены в собственных чувствах и собственном мнении?

Может ли какая-нибудь из этих ситуаций стать реальностью? Очень просто рассматривать зарождающуюся технологию и исключить подобный сценарий из-за недостатка сложности, вычислительных мощностей или субъективной ценности. Однако, как уже упоминалось, развитие технологий в геометрической прогрессии означает, что совсем скоро эмоциональное программирование может превратиться в радикально новый источник власти. Закон Мура, закон Крайдера, закон Меткалфа и прочие закономерности отмечают, что многие аспекты мира, созданного человеком, совершенствуются в геометрической прогрессии. У нас нет оснований полагать, что развитие эмоционального программирования будет происходить иначе.

Как видим, при неправильном использовании перспективная технология может наделать дыр в нашем социальном полотне. Проблемы достаточно масштабны и имеют множество нюансов, которые стоит продумать и обсудить. Поскольку однозначные решения в этой книге не рассмотрены, кажется разумным начать дискуссию именно сейчас, пока есть время повлиять на развитие эмоциональных машин.

Глава 11
Кто же будет заботиться?

Учреждение комплекса RSL Саге, Брисбейн, Австралия – 18 апреля 2011 года


В тихом приюте в Брисбейне без движения и без звука сидит старичок и разглядывает ковер под ногами. Восьмидесятидвухлетний Томас страдает прогрессирующей старческой деменцией. Уже больше двух лет он не произносил ни слова. Когда Томас поступил в дом престарелых, персонал пытался с ним общаться и как-то расшевелить, но безуспешно. Неудивительно, что со временем сотрудники все реже пытались наладить со стариком хоть какой-то контакт.

Томас не замечает, как санитар проводит в комнату отдыха женщину средних лет. Женщина подходит к Томасу и присаживается на корточки рядом с его стулом. Томас глядит в пол.

– Здравствуйте, Томас, – мягко произносит она. – Как вы себя чувствуете сегодня?

Томас продолжает рассматривать ковер отсутствующим взглядом. Женщина достает из-за спины что-то похожее на большую мягкую игрушку – тюлененка. Она держит игрушку перед Томасом.

– Хотите познакомиться с Милли, Томас? Милли говорит «Привет».

Милли поворачивает голову, открывает глаза и подмигивает Томасу. Женщина подносит тюлененка к плечу Томаса. Когда тюлененок утыкается носом Томасу в шею, глаза старика широко открываются. Схватив игрушку обеими руками, Томас держит ее перед собой и смотрит в большие темные глаза тюлененка. Взгляд Томаса становится уже не таким отсутствующим.

Развитие технологий в геометрической прогрессии означает, что совсем скоро эмоциональное программирование может превратиться в радикально новый источник власти.

Следующие сорок минут Томас обнимает и гладит тюлененка и выглядит более заинтересованным, чем когда-либо раньше. На самом деле игрушечный тюлененок Милли – это роботизированная система с официальным названием PARO. Он принадлежит к новой категории устройств, известных как терапевтические роботы-компаньоны. Эти довольно сложные устройства, разработанные в Японии, в США относят к медицинским изделиям класса 21. Робот использует искусственный интеллект, чтобы изменять свое поведение в зависимости от показаний множества сенсоров, отслеживающих прикосновения, звук, свет и температуру. Во время игры он шевелит головой, хвостом и плавниками и открывает глаза. Он реагирует на звуки, может отзываться на свое имя и отвечать на слова, которые часто использует владелец.

Тюлененок может имитировать удивление, счастье, гнев, а если ему не уделять достаточно внимания, он кричит. В результате, если его взять на руки, погладить или заговорить с ним, его поведение выглядит очень реалистично.

Через сорок пять минут женщина осторожно забирает робота из объятий Томаса.

– Милли нужно уйти, Томас. Но она еще вернется.

Томас смотрит на робота и произносит первые за много лет слова:

– Пока, Милли.

* * *

В ходе исследования, проведенного в 2011 году, Томас и другие пациенты комплекса RSL Саге на протяжении пяти недель общались с роботами PARO2. Контролируемое исследование показало, что у участников инновационной терапии повысился интерес к социальному взаимодействию, снизился уровень стресса, а ощущение одиночества стало не таким сильным.

Вход
Поиск по сайту
Ищем:
Календарь
Навигация