Книга Сердце машины. Наше будущее в эру эмоционального искусственного интеллекта, страница 38. Автор книги Ричард Йонк

Разделитель для чтения книг в онлайн библиотеке

Онлайн книга «Сердце машины. Наше будущее в эру эмоционального искусственного интеллекта»

Cтраница 38

Еще один центр оборонных исследований нейростимуляции как средства изменения мозга – Исследовательская лаборатория ВВС США на базе ВВС Райт-Паттерсон в штате Огайо. Миссия 711-го подразделения по изучению возможностей человека «в области биологических и когнитивных наук и технологий для оптимизации и защиты способности авиатора летать, вести бой и побеждать в воздухе, космосе и киберпространстве»10. В ходе ряда экспериментов применялись транскраниальная стимуляция мозга постоянным электрическим током (ТЭС) и транскраниальная магнитная стимуляция (ТМС), чтобы увеличить концентрацию внимания и повысить эффективность когнитивной деятельности. При исследовании концентрации внимания применяли ТЭС, направленную на дорсолатеральную префронтальную кору, чтобы привести мозг в состояние бдительности – как будто человек выпивал несколько чашек кофе одну за другой, но без побочных физических эффектов. Во время сорокаминутного эксперимента сканирование мозга людей, получавших ТЭС, показало, что работоспособность оставалась высокой на протяжении всего экспериментального периода. Это было просто неслыханно. В ходе исследования эффективности когнитивной деятельности участники, которые получали ТЭС, одновременно заучивая последовательность действий, показали результат на 250 % лучше, чем контрольная группа при следящем тестировании11. Это предполагает, что в не столь отдаленном будущем можно будет невероятно ускорить способность человека учиться. Кроме того, подобные техники можно применять, чтобы стимулировать или подавить определенный участок мозга. Ряд других исследований, в ходе которых применялась ТЭС, показал, что она воздействует и на другие функции, например математические способности, предрасположенность к риску и способность к планированию, но есть множество вопросов относительно того, насколько значим этот эффект, чтобы считать его полезным.

Некоторые исследования показывают, что ТЭС может изменять эмоциональную реакцию в соответствии с условиями эксперимента. При направленном воздействии на разные участки мозга подобные методы должны усиливать или подавлять эмоции так же, как и прочие аспекты нашей когнитивной деятельности. Хотя это не было первичной целью разработки, со временем подобные системы будут применяться во многих сферах, причем зачастую совершенно не в тех, для которых они были первоначально созданы. Их неизбежно начнут использовать, чтобы усилить или ослабить эмоциональную реакцию в определенных ситуациях, например отрегулировать здоровую реакцию на раздражитель, полностью подавить естественную эмоциональную реакцию или выработать реакцию, которая явно не соответствует ситуации. В зависимости от сферы применения результат может быть полезным, а может привести к катастрофическим последствиям при неправильном использовании.

В течение последних лет военные экспериментировали со многими технологиями, которым повышенная эмоциональная осознанность пошла бы на пользу, особенно дронами и роботами. Хотя концепция дронов или беспилотных летательных аппаратов (БПЛА) была популярна на протяжении века, их начали широко применять в военных целях только в течение двух последних десятилетий12. В то же время для использования в различных военных операциях разрабатывались роботы и другие автономные комплексы вооружения. Возрастающая зависимость от автономных и полуавтономных инструментов и вооружений вызвала беспокойство по поводу возможного изобретения «роботов-убийц». Несколько лет назад осознание потенциальной угрозы возросло настолько, что военные вели диалог о потенциальных рисках и преимуществах, а среди гражданских возникли полноценные движения, выступавшие за принятие международных законов о запрете такого рода оружия. Международный комитет по контролю за роботизированными вооружениями (ICRAC) – одна из таких групп, члены которой считают, что у человечества есть небольшой шанс не допустить угрозы, пока не стало слишком поздно. Комитет, неофициально входящий в группу неправительственных организаций «Кампания за запрет роботов-убийц», стремится к превентивному запрету автономного оружия поражающего действия по всему миру.

Одна из главных причин, по которой возможность существования такого оружия вызывает тревогу, – это недостаток эмпатии и эмоционального интеллекта. Ноэль Шарки, профессор робототехники и искусственного интеллекта Шеффилдского университета, а также один из основателей Комитета, отмечает:

Это вопрос не только визуальной дискриминации. Следите за логикой. Военные привели мне замечательный пример: несколько морпехов зажали нескольких боевиков в проходе между домами и намеревались убить. Они прицелились и собрались застрелить боевиков. Затем они заметили, что боевики несут гроб, опустили оружие, сняли шлемы и уважительно дали им пройти. Потому что если бы они убили боевиков, то сами бы попали в серьезные неприятности. На похоронах не убивают людей. Робот бы просто их пристрелил. Возможно, вам удастся запрограммировать робота, чтобы он не стрелял в этих условиях, но тогда все боевики будут ходить с гробами.

Мы снова возвращаемся к вопросу уязвимости программного обеспечения. Если приходится жестко кодировать стандартную реакцию на непредсказуемое событие, то в долгосрочной перспективе результат будет нулевым. Либо условия в конечном итоге выйдут за пределы ожидаемого диапазона, либо в программирование будет вмешиваться человеческий фактор. Эмоциональный интеллект и способность присваивать значения различным элементам и условиям в собственном окружении в значительной степени поможет решить проблему. В частности, если разум способен присваивать значения не только себе, но и прочим участникам действия. Иными словами, если искусственный интеллект подает признаки теории сознания и способен проявлять эмпатию.

Может ли аналог эмоций сделать автономные машины для убийства приемлемыми для нас в будущем? Возможно, но следует надеяться, что ненадолго – с почти нулевой вероятностью. Армейское командование не захочет нести ответственность за приказ об уничтожении, исполнение которого они не контролируют полностью. Такой же объективной реальностью, как и эмоциональный искусственный интеллект, может стать и вопрос, насколько «человечны» его реакции и мыслительные процессы. Этот вопрос будет актуален и после того, как эмоциональный искусственный интеллект достигнет человеческого уровня.

Пока же нам остается ждать, вероятно, не одно десятилетие, пока у машин не появятся хотя бы зачатки настоящей эмпатии.

Системы адаптивного обучения только выиграют от использования технологий распознавания эмоций и смогут эффективнее добиваться своих целей.

Автономный комплекс вооружения функционирует отдельно от управляющего им человека. Автономность можно поддерживать несколько секунд или минут, но ее также можно поддерживать месяцами и годами. Теоретически комплекс может сохранять актуальность и после того, как конфликт будет исчерпан. Министерство обороны США выступает в защиту автономных комплексов вооружения, заявляя, что «однократно активизированный комплекс вооружения может выбирать и поражать цели без дальнейшего вмешательства управляющего им человека». Если вы считаете, что никто намеренно не оставит без контроля автономный комплекс вооружения длительного действия, вспомните о том, что по всему миру до сих пор зарыты в земле приблизительно 110 миллионов противопехотных мин. Хотя эти машины для убийства по определению не вполне автономны, у них полностью отсутствует эмпатия, и им совершенно безразлично, кого убивать. Они могут сохранять боеготовность на протяжении десятилетий, то и дело убивая и калеча людей, несмотря на то что война давно закончилась. А теперь представьте машину, способную выбирать цели, выслеживать и убивать тех, кто были врагами, но уже могут ими и не быть. Вот вам и готовый ночной кошмар.

Вход
Поиск по сайту
Ищем:
Календарь
Навигация