Мы заново вступили в этот цикл, но теперь цель состоит в том, чтобы преобразовать общество XXI века в «вещь первостепенной важности», организованную по образу машинного улья, чтобы обеспечить определенность для других. Связи, к которым мы когда-то стремились ради личной поддержки и эффективности, преобразуются в средство распространения нового вида власти и социального слияния, которое ведет к гарантированным результатам.
V. Слияние как общество
Ученые Microsoft годами работают над тем, чтобы создать способы взять ту же логику автоматического упреждающего контроля, которая применяется на передовом крае сетевых технологий, и перенести ее на социальные отношения. Как заметил Наделла в 2017 году, если «мы» можем сделать это в «физическом месте», это можно сделать «повсеместно» и «где угодно». Он советовал собравшимся прикладным утопистам: «Вы можете начать рассуждать о людях, об их связях с другими людьми, с находящимися в этом месте вещами…»
[1050]
Творческий диапазон этого нового мышления демонстрирует заявка Microsoft на патент от 2013 года, обновленная и переизданная в 2016 году под заголовком «Мониторинг поведения пользователя на компьютеризированном устройстве»
[1051]. Подкрепленное нескрываемо скудной теорией в сочетании с богатой практикой, запатентованное устройство призвано отслеживать поведение пользователя с целью упреждающего обнаружения «любого отклонения от нормального или приемлемого поведения, которое могло бы повлиять на психологическое состояние пользователя. Прогностическую модель, охватывающую признаки одного или нескольких психологических состояний, можно сравнить с признаками, основанными на текущем поведении пользователя».
Ученые предлагают приложение, которое можно встроить в операционную систему, сервер, браузер, телефон или носимое устройство, и оно будет постоянно отслеживать поведенческие данные человека: взаимодействие с другими людьми или компьютерами, сообщения в социальных сетях, поисковые запросы и онлайн-действия. Приложение может активировать датчики для записи голоса и речи, видео и изображений, движения и обнаруживать, например, «когда пользователь слишком много кричит, проверяя телефонные звонки пользователя и сравнивая соответствующие характеристики с прогностической моделью».
Все эти поведенческие данные хранятся для будущего ретроспективного анализа с целью улучшения прогностической модели. Если пользователь обычно ограничивает громкость своего голоса, то внезапный громкий крик может указывать на некое «психосоциальное событие». В другом варианте поведение может быть оценено в отношении «распределения признаков, представляющих нормальное и/или приемлемое поведение для среднестатистического представителя популяции <…> статистически значимое отклонение от этого базового уровня поведения указывает на ряд возможных психологических событий». Вначале предполагается, что в случае обнаружения аномалии устройство будет предупреждать «доверенных лиц», таких как члены семьи, врачи и лица, обеспечивающие уход. Но по мере углубления в детали патента этот круг расширяется. Ученые отмечают полезность подобных сигналов для медицинских учреждений, страховых компаний и сотрудников правоохранительных органов. Это новая возможность «надзора как услуги», предусматривающая предотвращение любого поведения на выбор клиентов.
Патент Microsoft возвращает нас к Планку, Мейеру и Скиннеру, а также к точке зрения Другого. В их восходящем в своих истоках к физике представлении о человеческом поведении, аномалии – это «случайности», которые называются свободой, но на самом деле указывают на незнание; они просто еще не могут быть объяснены фактами. Планк/Мейер/Скиннер полагали, что утрата этой свободы – необходимая цена за «безопасность» и «гармонию» общества, свободного от аномалий, в котором все процессы оптимизированы для достижения наибольшего блага. Скиннер надеялся, что при правильной технологии поведения знание будет превентивно устранять аномалии, подгоняя все поведение под заранее установленные параметры, которые соответствуют социальным нормам и целям. «Если бы мы могли показать, что члены нашего общества предпочитают жизнь во Втором Уолдене, – говорит Фрейзер-Скиннер, – это было бы наилучшим возможным доказательством того, что мы достигли безопасной и продуктивной социальной структуры»
[1052].
В этой модели социальных отношений поведенческая модификация действует за порогом человеческого сознания, чтобы побуждать, поощрять, подталкивать, наказывать и подкреплять поведение в соответствии с «правильной политикой». Так, Facebook обнаруживает, что может предсказуемо отклонять стрелки общественного мнения в том, что касается моделей голосования, эмоциональных состояний или чего-то еще, на выбор. Niantic Labs и Google обнаруживают, что они могут предсказуемо пополнить кошельки McDonald’s или любых других своих клиентов. В каждом случае корпоративные цели определяют «политику», в направлении которой гармонично течет слияние поведений.
Машинный улей – слитое воедино сознание, созданное машинным обучением, – это материальное средство для окончательного устранения хаотических элементов, которые не дают гарантированных результатов. Эрик Шмидт и Себастьян Трун, гуру машинного интеллекта, который когда-то руководил X Lab в Google и помогал руководить разработкой Просмотра улиц и беспилотного автомобиля Google, говорят именно об этом, когда отстаивают самоуправляемые машины Alphabet. «Давайте перестанем психовать каждый раз, когда речь заходит об искусственном интеллекте», – пишут они.
Шмидт и Трун подчеркивают «решающее отличие между тем, как учится искусственный интеллект и как учится человек»
[1053]. Вместо типичных заверений в том, что машины можно конструировать так, чтобы они больше походили на людей и, значит, были бы менее угрожающими, Шмидт и Трун утверждают нечто прямо противоположное: людям необходимо стать более похожими на машины. Машинный интеллект возводится на трон как апофеоз коллективных действий, в котором все машины в сетевой системе плавно движутся к слиянию, разделяя одно понимание и тем самым работая в унисон с максимальной эффективностью для достижения одного и того же результата. Отбойные молотки не оценивают ситуацию самостоятельно; каждый из них знает то, что знают они все. Каждый из них одинаково реагирует на неуполномоченные руки, их мозги одинаково служат «политике». Машины справляются или не справляются вместе, правы или ошибаются вместе. Шмидт и Трун сокрушаются:
За рулем люди в основном учатся на собственных ошибках, а на ошибках других – редко. Взятые в целом, люди раз за разом совершают одни и те же ошибки. В результате каждый год сотни тысяч людей во всем мире гибнут в дорожно-транспортных происшествиях. Искусственный интеллект развивается иначе. Когда один из беспилотных автомобилей совершает ошибку, на ней могут научиться все беспилотные автомобили. По сути, каждый новый беспилотный автомобиль рождается уже с полным набором навыков своих предков и сверстников. Так что, взятые в целом, эти машины могут учиться быстрее, чем люди. Благодаря таким знаниям, беспилотные автомобили за короткое время благополучно вписались в наши дороги наряду с водителями-людьми, продолжая постоянно учиться на ошибках друг друга <…>. Сложные инструменты на основе искусственного интеллекта позволят нам лучше учиться на опыте других <…>. Урок беспилотных автомобилей заключается в том, что коллективно мы можем научиться большему и сделать больше
[1054].