Это приводит нас к тому, что можно назвать “Великим компромиссом ИИ”. Стоит ли нам с распростертыми объятиями принять способности систем ИИ, которые могут облегчить нам жизнь и даже помочь спасти жизни, и позволить более широкое внедрение новых систем? Или же нам следует быть осторожнее, учитывая непредсказуемые ошибки и предвзятость современного ИИ, его уязвимость для взлома и недостаток прозрачности в принятии решений? В какой степени людям следует контролировать различные системы ИИ? Какой должна быть система ИИ, чтобы мы могли позволить ей работать автономно? Споры об этом не утихают, хотя ИИ внедряется все шире и высказываются мнения, что его новые применения (например, беспилотные автомобили) уже не за горами.
Отсутствие консенсуса по этим вопросам было подчеркнуто в недавнем исследовании, проведенном Исследовательским центром Пью
[156]. В 2018 году аналитики центра собрали мнения почти тысячи “пионеров технологий, инноваторов, разработчиков, руководителей бизнеса, управленцев, исследователей и активистов” по следующим вопросам:
Как вы думаете, можно ли с большой вероятностью утверждать, что к 2030 году развивающийся ИИ и родственные технологические системы расширят и дополнят человеческие возможности? Можно ли сказать, что большинство людей в основном будет жить лучше, чем сейчас? Или же, напротив, более вероятно, что развивающийся ИИ и родственные технологические системы ограничат самостоятельность и способность людей к действиям в такой степени, что большинство людей не станет жить лучше, чем сегодня?
Мнения разделились: 63 % респондентов полагали, что прогресс в ИИ улучшит жизнь людей к 2030 году, но 37 % не соглашались с ними. Одни утверждали, что ИИ “фактически искоренит бедность во всем мире, значительно снизит уровень заболеваемости и обеспечит более качественное образование почти для всех людей на планете”, в то время как другие прогнозировали апокалиптическое будущее: автоматизацию огромного количества профессий, потерю приватности и гражданских прав из-за постоянного наблюдения с применением технологий ИИ, появление неэтичного автономного оружия, самостоятельное принятие решений непрозрачными и ненадежными компьютерными программами, усиление расовой и гендерной предвзятости, манипуляции СМИ, рост киберпреступности и то, что один респондент назвал “истинной, экзистенциальной бесполезностью” людей.
Развитие машинного интеллекта сопряжено с целым клубком этических проблем, и дискуссии об этике ИИ и больших данных стали материалом для нескольких книг
[157]. Чтобы проиллюстрировать сложность возникающих вопросов, я подробнее разберу один пример, который сегодня привлекает большое внимание: автоматическое распознавание лиц.
Этика распознавания лиц
Распознавание лиц – это задача присвоения имени лицу на изображении или видеозаписи (или в прямом эфире). Так, Facebook применяет алгоритм распознавания лиц к каждой фотографии, загружаемой на платформу, пытаясь выявить лица на снимке и соотнести их с известными пользователями сети (по крайней мере с теми, кто не отключил эту функцию)
[158]. Если вы находитесь на Facebook и кто-то загружает фотографию с вашим лицом, система может спросить вас, хотите ли вы “отметить себя” на фото. Точность алгоритма распознавания лиц, используемого Facebook, одновременно впечатляет и пугает. Неудивительно, что эта точность обеспечивается работой глубоких сверточных нейронных сетей. Программа часто распознает лица не только когда они находятся на переднем плане в центре снимка, но и когда человек стоит в толпе.
Технология распознавания лиц имеет множество потенциальных плюсов: она может помогать людям искать фотографии в своих коллекциях, позволять людям с нарушениями зрения узнавать встречаемых людей, искать лица пропавших детей и беглых преступников на фотографиях и видео и выявлять случаи кражи личности. Однако столь же просто представить для нее применения, которые многим могут показаться оскорбительными или опасными. Так, Amazon предлагает свою систему распознавания лиц (в названии которой – Rekognition – слышатся странные отголоски антиутопий) полицейским управлениям, которые могут сравнивать, скажем, видео с камер видеонаблюдения с базой данных известных преступников или возможных подозреваемых.
Очевидной проблемой становится приватность. Даже если я не зарегистрирована на Facebook (или в любой другой социальной сети, использующей распознавание лиц), мои фотографии могут быть размечены и впоследствии автоматически распознаны сайтом без моего разрешения. Например, компания FaceFirst за плату предоставляет услуги по распознаванию лиц. Журнал New Scientist пишет: “FaceFirst… представляет систему для розничных магазинов, которая, как утверждается, «поднимает продажи, узнавая ценных клиентов при каждом посещении», а также отправляет «оповещения, когда известные проблемные клиенты входят в любой из ваших магазинов»”
[159]. Подобные услуги предлагают и многие другие компании.
Но потеря приватности не единственная возникающая здесь проблема. Еще тревожнее становится, если задуматься о надежности систем распознавания лиц, ведь известно, что они порой совершают ошибки. Если ваше лицо будет ошибочно распознано, вам могут отказать в посещении магазина, запретить сесть в самолет или несправедливо обвинить в преступлении. Более того, современные системы распознавания лиц допускают значительно больше ошибок при распознавании цветных лиц, чем при распознавании белых. Американский союз защиты гражданских свобод (ACLU), который яростно сопротивляется использованию технологии распознавания лиц в правоохранительных органах, ссылаясь на потенциальное нарушение гражданских прав, протестировал систему Rekognition, разработанную Amazon, на 535 членах Конгресса США (не меняя настроек по умолчанию). Фотография каждого члена Конгресса сравнивалась с базой данных людей, арестованных по обвинениям в совершении уголовных преступлений. В ходе проверки система некорректно распознала лица 28 из 535 членов Конгресса, обнаружив для них соответствия в базе данных преступников. Двадцать один процент ошибок пришелся на фотографии афроамериканцев (при этом афроамериканцы составляют всего около 9 % членов Конгресса)
[160].