Книга WTF? Гид по бизнес-моделям будущего, страница 70. Автор книги Тим О’Рейли

Разделитель для чтения книг в онлайн библиотеке

Онлайн книга «WTF? Гид по бизнес-моделям будущего»

Cтраница 70

В результате недостатка контекста многие сигналы, на которые опирается Google, например структура ссылок в Интернете, отсутствуют. Хотя социальная сеть Facebook может использовать те же методы, ее инфраструктура и оперативные процессы для работы с контентом иные. Это одна из причин, по которой Facebook ждет решения этой проблемы от «сообщества». Смогут ли ее пользователи, которых насчитывается более миллиарда, управлять порядком на сайте, если им будут даны правильные инструменты? В поданном в 2015 году патенте «Системы и методы идентификации нежелательного контента» компания Facebook уже изложила свой подход к решению проблемы ненавистнических высказываний, порнографии и запугиваний, который опирался бы на отчеты пользователей, но с использованием множества дополнительных сигналов, позволяющих классифицировать и оценивать не только сами отчеты, но и пользователей, их предоставляющих. Многие из методов, описанных в патенте, также можно применять к фальшивым новостям.

Во второй статье на эту тему в своем блоге Марк Цукерберг подробно описал подход компании, который включает в себя более простые для людей способы информировать о фальшивых материалах, партнерство со сторонними организациями, занимающимися проверкой фактов, и, теоретически, даже показ предупредительного знака на статьях, отмеченных фактчекерами или сообществом как ненадежные. Но Марк также отметил, что самое главное, что может сделать Facebook, – это «улучшить нашу способность классифицировать дезинформацию. Это означает более совершенные технические системы, позволяющие обнаружить то, что люди отметили бы как ложное, до того как они сделают это самостоятельно». Он также отметил, что компания Facebook уже улучшила алгоритмы, применяемые для выбора «похожих статей» по ссылкам в ленте новостей.

Это алгоритмическое «перевоспитание» важно, потому что скорость распространения контента в социальных сетях работает против неторопливых фактчекеров. История одной фальшивой статьи началась в Twitter, когда сторонник Трампа Эрик Такер опубликовал фотографию припаркованных в Остине, штат Техас, автобусов и высказал мнение о том, что кампания Клинтон использует их для перевозки демонстрантов для проведения акции протеста на предстоящей речи Трампа. Несмотря на то что у Такера было всего сорок подписчиков и он удалил твит, как только обнаружил, что на самом деле автобусы предназначались для посетителей конференции, проводимой компанией Tableau, производящей программное обеспечение, фотография стала вирусной, ею поделились 16 000 раз в Twitter и 350 000 раз в Facebook. В его изначальном твите были использованы хэштеги «#фальшивыепротесты #Трамп2016 #Остин», гарантирующие, что его прочитает большое количество людей, следящих за этими темами.

Новость подхватили сначала на reddit, затем различные правые блоги, а затем средства массовой информации. Сам Дональд Трамп написал в Twitter о «профессиональных протестантах», добавив масла в огонь. Хотя Такер не ожидал такого эффекта, люди, которые занимаются продвижением фальшивых новостей, часто обладают мощными стимулами для их распространения, используя программные инструменты, чтобы обнаружить ключевые факторы влияния и увязывая с ними фальшивые новости, чтобы придать им быстрый старт. Учитывая тот трафик, который на сегодняшний день может принести горячая новость, даже профессиональные новостные организации используют автоматические «инструменты для социального прослушивания», чтобы быстро ухватить тенденции и отредактировать популярные истории в своих собственных публикациях без тщательной проверки фактов, которая когда-то служила характеристикой ведущих средств массовой информации.

К моменту, когда заинтересованные пользователи или фактчекеры обозначат контент как ложный, им уже могут поделиться сотни тысяч раз и его уже могут прочитать миллионы людей. Опровержения первоначальной статьи обычно малоэффективны. К полуночи того дня, когда его статья впервые была опубликована в Twitter, Такер удалил оригинальный твит и заменил его таким же со штампом «Ложь» на картинке. Этим твитом поделились в общей сложности 29 раз, по сравнению с 16 000 ретвитами оригинала. Я вспомнил старую поговорку, которую часто слышал от матери: «Ложь обойдет полмира, пока правда успеет надеть ботинки».

Единый подход, который стали практиковать Google, Facebook и другие, отмечая ненадежные статьи, может помочь, потому что отметки будут следовать за статьей и, теоретически, оставаться маркером на ней, но только если они сделаны заранее, пока новость еще не получила широкого распространения. Но даже у этого подхода есть свои минусы, поскольку узкопартийным или проплаченным сайтам ничего не мешает создать новую версию той же фальшивой новости. Как вы это обнаружите? Вы снова обратитесь к алгоритмическим джиннам, чтобы те помогли «поймать крота».

Кроме того, сами пользователи не только с трудом определяют, что истинно, а что ложно, но также с трудом обнаруживают сигналы, которые предоставляют им компании, чтобы помочь определить авторитетность источника того, что они видят. Только 25 % учащихся средних школ в ходе одного из исследований Стэнфордского университета признали важное значение голубого значка, используемого Facebook и Twitter для обозначения проверенных аккаунтов. Будут ли флажки для фальшивых новостей работать лучше?

Наконец, необходимо понять, что поисковые системы и платформы социальных сетей являются полем онлайн-битвы, где противники атакуют, используя те же инструменты, которые изначально были разработаны рекламодателями для отслеживания своих клиентов, а затем мошенниками и спамерами, чтобы обыграть систему с целью получения прибыли. В дополнение к спонсируемым Россией кампаниям по дезинформации в социальных сетях, «Проект Аламо» избирательной кампании Трампа использовал крайне целенаправленную дезинформацию, чтобы отговорить сторонников Клинтон принимать участие в голосовании. Эти статьи называли «темными постами» Брэда Парскаля, который руководил действиями кампании в сфере социальных сетей. Это были очень узконаправленные статьи, аудитория которых была четко определена таким образом, что, как он выразился, «это видят только те люди, которым мы хотим это показать».

Джонатан Олбрайт, профессор по коммуникациям, который проанализировал сеть 300 новостных сайтов, публиковавших фальшивые новости во время выборов 2016 года, высказал ту же самую точку зрения о программном микротаргетинге.

«Это пропагандистская машина, – писал он. – Они захватывают внимание людей, а затем удерживают их на эмоциональном поводке и никогда не отпускают».

В «захватывании внимания людей, а затем их удержании на эмоциональном поводке» нет ничего нового. Этот принцип лежал в основе работы многих средств массовой информации во времена желтой прессы в начале XX века, атаки которой отбивались путем внедрения журналистских стандартов на протяжении большей части столетия и которая затем вновь заявила о себе в последние десятилетия века на ток-шоу, на радио и в передаче Fox News на телевидении. Социальные сети и их рекламная бизнес-модель довели этот процесс до логического завершения.

Целенаправленные кампании в социальных сетях, несомненно, станут характерной чертой всех будущих политических кампаний. Социальные интернет-платформы и общество в целом должны будут вплотную заняться решением проблем новых средств массовой информации. Момент кризиса может настать, когда мы поймем, что инструменты дезинформации и пропаганды – это те самые инструменты, которые обычно используются предприятиями и рекламными агентствами для отслеживания своих клиентов и оказания на них воздействия. Не только политические субъекты заинтересованы в распространении фальшивых новостей. На карту поставлены огромные суммы, и участники используют все инструменты, чтобы обыграть систему. Проблема не в Facebook.

Вход
Поиск по сайту
Ищем:
Календарь
Навигация