Книга WTF? Гид по бизнес-моделям будущего, страница 71. Автор книги Тим О’Рейли

Разделитель для чтения книг в онлайн библиотеке

Онлайн книга «WTF? Гид по бизнес-моделям будущего»

Cтраница 71

Фальшивые новости – это просто самая неприятная сторона бизнес-модели, которая управляет большей частью интернет-экономики.

В сфере киберпреступности эти инструменты выходят за пределы неприятного, попадая в сферу незаконного. Один российский ботнет, запущенный в декабре 2016 года, создавал целевые видеоролики, которые собирали 3–5 миллионов долларов дохода в день от рекламы с фальшивых просмотров видео программами, маскирующимися под пользователей. Иными словами, эта битва выходит далеко за пределы создания фальшивых новостей. Также возможно создание фальшивых пользователей, которые существуют только как пешки в битве за клики и лайки.

Когда злоумышленники используют программы, чтобы маскироваться под пользователей, контроля со стороны человека, не обладающего специализированными инструментами, недостаточно, из-за скорости и масштаба атак. Это еще одна причина, по которой ответные меры, применяемые к фальшивым новостям и другим видам фальсификации в социальных сетях, должны быть алгоритмическими, более похожими на спам-фильтры, а не просто полагающимися на пользователей или на механизмы традиционной журналистики.

Проект 2015–2016 гг. Управления перспективных исследовательских проектов Министерства обороны США (DARPA) Cyber Grand Challenge («Великая киберзадача») основывался на аналогичном понимании, предлагая разработать системы ИИ для поиска и автоматического исправления уязвимостей программного обеспечения, за которыми попросту не поспевают корпоративные ИТ-команды. Проблема в том, что все больше кибератак становятся автоматическими, и эти цифровые враги находят дыры в безопасности намного быстрее, чем люди могут их залатать.

Джон Лаанчбери, директор Информационного бюро инноваций DARPA, рассказал мне поучительную историю, произошедшую во время проведения проекта «Великая киберзадача». В различные соревнующиеся между собой системы были внедрены уязвимости в безопасности, предполагалось, что они их должны найти и исправить, прежде чем другая система сможет ими воспользоваться. Одна из участвующих в проекте программ с искусственным интеллектом изучила собственный исходный код и обнаружила уязвимость, но не из числа тех, которые были внедрены специально, и использовала ее, чтобы взять под контроль другую систему. Третья система, наблюдавшая за атакой, диагностировала проблему и исправила свой собственный исходный код. Все это заняло двадцать минут.

Полковник ВВС Джон Бойд, «отец «F-16», ввел термин «цикл НОРД», где Н – наблюдение, О – ориентация, Р – решение, Д – действие (англ. OODA, O – observe, O – orient, D – decide, A – act), для описания того, почему в бою маневренность важнее, чем чистая огневая мощь. Оба соперника пытаются понять ситуацию, решить, что делать, а затем действуют. Если вы можете думать быстрее, вы можете «попасть внутрь цикла НОРД вашего врага» и помешать ему принять решение.

«Ключевой момент состоит в том, чтобы скрыть ваши намерения и сделать ваши действия непредсказуемыми для оппонента, пока вы параллельно выясняете его намерения, – написал коллега Бойда Гарри Хиллайкер в своей хвалебной речи Бойду. – То есть работайте в более быстром темпе, чтобы создать быстро меняющиеся условия, которые мешают вашему противнику адаптироваться или реагировать на эти изменения, и искореняйте его осведомленность или не допускайте ее вовсе. Вследствие этого хаос и замешательство сделают его реакцию на условия или действия, которые кажутся неопределенными, двусмысленными или непонятными, чрезмерной или недостаточной».

Это очень сложно сделать, когда ваш противник – это машина, способная действовать в миллионы раз быстрее, чем вы. Один наблюдатель, пожелавший остаться анонимным, эксперт как в финансовых системах, так и в кибервойнах, сказал мне: «Для того чтобы попасть внутрь цикла НОРД другой машины, нужна машина».

Что такое истина?

Мы говорим об объективно проверенных фактах и объективно подтвержденных фальсификациях. Существует еще одна, более сложная проблема, в решении которой неожиданным образом могут помочь алгоритмы. Как отметил Марк Цукерберг, многие проблематичные единицы контента не являются откровенными фальсификациями, но содержат в себе субъективное мнение или полуправду. Сторонники и противники одного и того же вопроса хотят верить во что-то и с готовностью делятся информацией, даже если они знают, что она, по крайней мере, частично ложная. Даже когда профессиональные организации по проверке фактов, такие как Snopes или PolitiFact, или сайты ведущих средств массовой информации, где работают опытные журналисты, разоблачают фальшивую статью, находятся те, кто недоволен таким результатом, считая их мнение предвзятым.

Джордж Сорос заметил, что есть правда, есть ложь и есть то, что является правдой или ложью в зависимости от того, верят ли в это люди или нет. Он называет это «рефлексивными знаниями», но, возможно, тут подошел бы старомодный термин «верования». К этой категории можно отнести так много важных вопросов – не только историю, политику и рынки. «Мы являемся частью мира, который мы пытаемся понять, – писал Сорос, – и наше несовершенное понимание играет важную роль в формировании событий, в которых мы участвуем».

Так было всегда, но наши новые, распространенные по всему миру цифровые системы, связывающие нас с зарождающимся глобальным мозгом, ускорили и активизировали этот процесс. Это не просто факты, распространяющиеся от одного сознания к другому. Это не просто убеждение, что чайники с кофе без кофеина должны быть оранжевыми. Дезинформация также является вирусной, формируя убеждения миллионов. Все чаще то, что мы знаем, и то воздействие, которому мы подвергаемся, формируется с помощью алгоритмов персонализации, которые пытаются выделить для нас из огромного потока контента в Интернете только то, на что мы, по мнению алгоритмов, скорее всего, будем реагировать, апеллируя скорее к заинтересованности и к эмоциям, чем к истине как таковой.

Напоминание Сороса о том, что курсы акций и общественные движения не являются ни правдой, ни ложью, предполагает такой же подход к проблеме фальшивых новостей. Даже осознавая роль эмоций в формировании цен на акции, финансовые аналитики все же считают, что эти цены формируются по некоторым «фундаментальным показателям». Курсы акций могут зависеть от того, что люди думают по поводу будущих перспектив компании, как оценивают ее годовой доход, прибыль, капитал, темпы роста и вероятные рыночные возможности. Регулярно предоставляются отчеты о наличных запасах и отчеты о соотношении цены акции и чистой прибыли и другие показатели того, насколько ожидания превышают фундаментальные показатели, чтобы люди могли принимать обоснованные решения по поводу того, насколько велики риски, на которые они идут. Существует множество людей, которые будут игнорировать эти риски, и людей, которые подталкивают их к этому, но по меньшей мере хоть какая-то информация присутствует.

Разрыв между ожиданиями людей и фундаментальными показателями в сфере новостей также можно измерить, используя множество сигналов. Зачастую это можно сделать более быстро и тщательно при помощи компьютерных алгоритмов, чем посредством использования человеческого труда.

Когда люди обсуждают правдивость или ложность новостей, а также ответственность, которую несут такие сайты, как Facebook, Google и Twitter, за содействие в их идентификации, они почему-то думают, что вопрос определения «истинности» или «ложности» заключается только в оценке контента как такового, и делают вывод о том, что компьютер не может выполнить эту задачу, поскольку она требует субъективного подхода. Но, как и в случае с поиском Google, множество сигналов, которые можно использовать, не зависят от фактического содержания. Чтобы использовать их, мы просто должны следовать завету Коржибски, сравнивать карту с территорией, которую она якобы описывает.

Вход
Поиск по сайту
Ищем:
Календарь
Навигация