Книга Наука о данных, страница 33. Автор книги Джон Келлехер, Брендан Тирни

Разделитель для чтения книг в онлайн библиотеке

Онлайн книга «Наука о данных»

Cтраница 33
В поисках утраченной приватности

Поскольку современные люди взаимодействуют и живут в технически развитом обществе, они неизбежно оставляют цифровые следы. Повсеместное внедрение видеонаблюдения означает, что данные о человеке могут собираться в любое время и где бы он ни был — на улице, в магазине, на парковке, не говоря уже о возможности отслеживания мобильных телефонов. Реальные примеры сбора данных включают учет покупок по кредитным картам, использование схем лояльности в супермаркетах, снятие наличных в банкоматах, звонки по мобильному телефону и проч. В интернете данные о людях собираются, когда они посещают сайты или входят в систему, отправляют электронную почту, совершают онлайн-покупки, назначают даты, посещают ресторан или магазин, пользуются устройством для чтения электронных книг, смотрят лекцию на открытых онлайн-курсах или публикуют что-то в социальной сети. Чтобы можно было составить представление об объеме данных, собираемых в среднем на одного человека, отметим, что, согласно отчету голландского управления по защите данных за 2009 г., среднестатистический гражданин Нидерландов был включен в 250–500 различных баз, а для более социально активных людей этот показатель достигает 1000{38}. Собранные вместе точечные данные и определяют цифровой след человека.

Персональные данные собираются двумя способами, и оба являются проблематичными с точки зрения конфиденциальности. Во-первых, данные могут собираться без ведома человека. Во-вторых, даже если человек решил оставить свои данные или мнение, он не может знать, как они будут использованы, будут ли переданы третьим сторонам и каким образом. Термины «цифровая тень» и «цифровой след» используются для различения этих двух типов сбора данных: цифровая тень — это данные, собранные о человеке без его ведома, согласия или осведомленности, а цифровой след состоит из данных, сознательно опубликованных человеком{39}.

Сбор персональных данных без ведома или согласия, конечно, вызывает беспокойство. Но не стоит забывать и того, что мощь современных методов выявления закономерностей в сочетании с интеграцией и многократным использованием данных из нескольких источников означает, что даже собранные с ведома и согласия человека они могут иметь для него негативные и непредсказуемые последствия. Эти методы науки о данных способны на основе открытой информации, которую мы охотно публикуем, например, в социальных сетях, вывести другую информацию, сугубо личную, которой мы делиться не планировали. Например, многие пользователи Facebook ставят лайки просто потому, что хотят продемонстрировать поддержку своим друзьям. Тем не менее, используя эти данные, модели, разработанные для Facebook, могут довольно точно предсказывать сексуальную ориентацию, политические и религиозные взгляды человека, умственные способности, особенности личности, склонность к употреблению вызывающих привыкание веществ, таких как алкоголь, наркотики и сигареты, и даже то, например, оставались ли вместе его родители до его совершеннолетия{40}. Среди неконтекстных связей, установленных этими моделями, встречаются, например, поддержка кампании за права человека как предиктор гомосексуальности (и для мужчин, и для женщин) или симпатия к бренду Honda как вероятный признак того, что человек не курит{41}.

Вычислительные методы сохранения конфиденциальности

В последние годы растет интерес к вычислительным методам сохранения конфиденциальности на протяжении всего процесса анализа данных. Наиболее известны два из этих методов: дифференциальная приватность и федеративное машинное обучение.

Дифференциальная приватность — это математический метод получения полезной информации о населении, без изучения отдельных людей. Дифференциальная приватность использует узкое определение конфиденциальности, когда та не считается нарушенной включением персональных данных в процесс анализа, если выводы, сделанные в результате этого анализа, совпадают с выводами, сделанными без включения данных отдельных лиц. Существует ряд процессов, реализующих дифференциальную приватность. В их основе лежит идея добавления шума либо на этапе сбора данных, либо в ответы на запросы к базе данных. Шум защищает конфиденциальность отдельных лиц, но может быть удален из данных на агрегированном уровне так, чтобы можно было рассчитать полезную статистику по населению в целом. Хорошим примером введения шума в данные является метод случайного ответа. Например, при анкетировании респондентам предлагается ответить «Да» или «Нет» на деликатный вопрос (касающийся нарушения закона, состояния здоровья и т. д.), используя следующую процедуру:

1. Подбросьте монету и держите результат в секрете.

2. Если выпал орел, отвечайте «Да».

3. Если выпала решка, отвечайте правдиво.

Половине респондентов выпадет орел, и она ответит «Да», другая половина ответит правдиво. Таким образом, истинное число респондентов, ответивших «Нет» в общей численности населения приблизительно вдвое превысит количество данных ответов «Нет» (монета выпадает случайным образом, поэтому соотношение ответов «Да» и «Нет» среди респондентов, которым выпал орел, должно быть таким же, как и среди ответивших правдиво). Зная истинное число ответов «Нет», мы можем вычислить истинное число ответов «Да». Однако, несмотря на то что теперь мы относительно точно знаем долю ответивших «Да», невозможно определить, для кого конкретно из респондентов это условие выполняется. Существует компромисс между количеством шума, вводимого в данные, и полезностью данных для анализа. Дифференциальная приватность устраняет этот компромисс, оценивая необходимый уровень шума с учетом таких факторов, как распределение данных в базе, типы обрабатываемых запросов и их количество. Хорошим введением в дифференциальную приватность и знакомством с методами ее реализации может стать книга Синтии Дворк и Аарона Рота «Алгоритмические основы дифференциальной приватности»{42}. В настоящее время техники дифференциальной приватности уже используются при создании потребительских продуктов. Например, Apple внедрила дифференциальную приватность в iOS 10, чтобы защитить конфиденциальность отдельных пользователей, но в то же время сохранить возможность выявлять закономерности в данных для совершенствования функции поиска и интеллектуального набора текста в мессенджерах.


Наука о данных

В некоторых сценариях данные поступают в проект из нескольких разнородных источников. Например, несколько больниц участвуют в общем исследовательском проекте, или компания собирает данные от большого числа пользователей приложения для мобильного телефона. Вместо того чтобы централизовать данные в одном хранилище и проводить анализ в единой базе, альтернативный метод предлагает обучать различные модели подмножеств непосредственно в источниках данных (т. е. в отдельно взятых больницах или в телефонах пользователей), а затем объединить уже обученные модели. Google использует этот федеративный метод машинного обучения, чтобы улучшить советника запросов, сделанных с помощью клавиатуры Google на Android{43}. Сперва мобильное устройство загружает в матрицу федеративного машинного обучения Google копию текущего приложения. Данные по его использованию собираются непосредственно на устройстве, и к ним применяется алгоритм обучения, который действует локально до обновления. В процессе обновления полученные модели загружаются в облако, где они усредняются с такими же моделями, загруженными с других телефонов пользователей. Затем базовая модель обновляется с использованием полученной усредненной модели. Используя этот процесс, компания улучшает базовую модель и в то же время сохраняет конфиденциальность пользователей.

Вход
Поиск по сайту
Ищем:
Календарь
Навигация