Книга Идиот или гений? Как работает и на что способен искусственный интеллект, страница 38. Автор книги Мелани Митчелл

Разделитель для чтения книг в онлайн библиотеке

Онлайн книга «Идиот или гений? Как работает и на что способен искусственный интеллект»

Cтраница 38

На волне негатива после теста ACLU и других исследований, демонстрирующих ненадежность и предвзятость систем распознавания лиц, несколько высокотехнологичных компаний объявили, что выступают против использования технологии распознавания лиц в правоохранительных органах и скрытом наблюдении. Так, Брайан Брэкин, генеральный директор компании Kairos, которая специализируется на распознавании лиц, написал в широко разошедшейся статье следующее:

Технологии распознавания лиц, используемые для установления личности подозреваемых, негативно влияют на цветных людей. Отрицая это, мы обманываем себя… Я сам пришел к выводу (и в моей компании меня поддержали), что использование коммерческих систем распознавания лиц в правоохранительной сфере и государственном наблюдении любого типа недопустимо – и что оно открывает дверь для недобросовестного поведения нечистоплотных людей… Мы заслуживаем жить в мире, где мы не даем государствам возможности категоризировать, отслеживать и контролировать своих граждан [161].

В блоге на сайте компании президент и директор Microsoft по юридическим вопросам Брэд Смит призвал Конгресс регламентировать распознавание лиц:

Технология распознавания лиц поднимает вопросы, которые касаются механизмов защиты таких фундаментальных прав человека, как право на неприкосновенность частной жизни и свободу самовыражения. Эти вопросы повышают ответственность технологических компаний, создающих соответствующие продукты. На наш взгляд, они также призывают к созданию продуманного государственного регламента и разработке норм допустимого использования [систем]. Распознавание лиц потребует активных действий как от государственного, так и от частного сектора [162].

Компания Google последовала примеру коллег и объявила, что не будет предлагать универсальную услугу по распознаванию лиц на своей облачной платформе ИИ, пока не сможет “гарантировать, что ее использование соответствует нашим принципам и ценностям, не допускает злоупотреблений и не приводит к пагубным последствиям” [163].

Реакция этих компаний обнадеживает, но выводит на первый план другой важный вопрос: в какой степени следует регламентировать исследования и разработки ИИ, и кто должен устанавливать регламенты?

Регулирование ИИ

Учитывая риски технологий ИИ, многие специалисты по ИИ, включая меня, выступают за введение определенного регулирования. Но это регулирование не должно осуществляться исключительно силами исследователей и компаний, работающих в сфере ИИ. Связанные с ИИ проблемы – надежность, объяснимость, предвзятость, уязвимость к атакам, этика использования – имеют не только технический, но также социальный и политический характер, а потому очень важно, чтобы в их обсуждении участвовали представители разных сфер. Вверить регламентацию ИИ только специалистам или только государственным органам в равной степени недальновидно.

Примером того, как сложно разрабатывать подобные регламенты, может служить принятый в 2018 году закон Европейского парламента, который прозвали “правом на объяснение” [164]. По этому закону при “автоматическом принятии решений” должна быть доступна “осмысленная информация о внутренней логике” любого решения, касающегося гражданина ЕС. Эта информация должна предоставляться “в краткой, прозрачной, понятной и легкодоступной форме с использованием простого и ясного языка” [165]. Такая формулировка допускает множество интерпретаций. Что считать “осмысленной информацией” или “внутренней логикой”? Запрещает ли этот закон использование труднообъяснимых методов глубокого обучения в принятии решений, касающихся граждан (например, при вынесении решений по кредитам или распознавании лиц)? Такие неопределенности, несомненно, еще долго будут обеспечивать работой юристов и сотрудников регуляторных органов.

На мой взгляд, ИИ следует регулировать по модели других технологий, в частности применяемых в биологических и медицинских науках, например генной инженерии. В этих сферах регулирование – такое, как проведение контроля качества и анализа рисков и пользы технологий, – происходит в результате совместной работы государственных органов, компаний, университетов и некоммерческих организаций. Кроме того, существуют достаточно развитые области биоэтики и медицинской этики, которые оказывают значительное воздействие на решения о разработке и применении технологий. Исследование и применение ИИ отчаянно нуждается в продуманной регуляторной и этической инфраструктуре.

Формирование такой инфраструктуры только начинается. В США правительства штатов начинают разработку регламентов, в том числе для применения технологий распознавания лиц и использования беспилотного транспорта. Однако по большей части университетам и компаниям, создающим системы ИИ, приходится самим регламентировать свою деятельность.

Пустоту пытаются заполнить некоммерческие аналитические центры, часто финансируемые богатыми предпринимателями, которые работают в сфере технологий и беспокоятся об ИИ. Эти организации – с такими названиями, как Институт будущего человечества, Институт будущего жизни и Центр по изучению экзистенциального риска, – проводят семинары, спонсируют исследования, создают образовательные материалы и предлагают к внедрению меры, обеспечивающие безопасное и этичное использование ИИ. Головная организация, Партнерство по искусственному интеллекту, пытается объединить такие группы под своей эгидой, чтобы “служить открытой платформой для дискуссий и взаимодействия по вопросам ИИ и его влияния на людей и общество” [166].

Вход
Поиск по сайту
Ищем:
Календарь
Навигация