Внедрение нечеловеческого мышления в военные системы и процессы изменит стратегию. Вооруженные силы и службы безопасности, использующие ИИ, добьются поразительных, даже ошеломляющих преимуществ. Сотрудничество с ИИ в военном деле может как свести на нет, так и невероятно усилить различные стороны традиционных стратегий и тактик. Если ИИ получит определенную степень контроля над кибернетическими (наступательными или оборонительными) или физическими (такими как авиация) системами вооружений, он сможет успешно выполнять функции, которые сложно реализовывать людям. Такие ИИ, как μZero ВВС США, уже летали на реальных самолетах и управляли радарными системами во время испытательных полетов. ИИ μZero спроектирован так, чтобы он мог самостоятельно применять оружие, но эта возможность отключена
[55]. Нет гарантии, что другие страны и команды разработчиков не дадут военным ИИ больше свободы.
Способность ИИ к автономии и логике создает не только потенциальную пользу, но и колоссальную неопределенность. Большинство традиционных военных стратегий и тактик основаны на предположении о существовании противника-человека, который будет вести себя узнаваемым образом, в соответствии с человеческим опытом и здравым смыслом. Однако ИИ, управляющий самолетом в поисках цели, будет следовать своей собственной логике, неизвестной противнику, невосприимчивой к традиционным сигналам и уловкам и при этом работающей очень быстро – гораздо быстрее, чем человеческое мышление.
В войне всегда много неопределенности и случайностей, но ИИ выводит их на новый уровень. Поскольку ИИ динамичен и эмерджентен, даже сами разработчики ИИ и пользователи оружия, основанного на ИИ, не могут точно знать, насколько оно мощное и что оно будет делать в той или иной ситуации. Как разработать наступательную или оборонительную стратегию для ИИ, который видит мир не так, как человек, обучаясь и изменяясь намного быстрее человека? Если результат применения некоторых видов оружия будет зависеть от восприятия ИИ и от выводов, которые он сделает (на основе расчетов, иногда непостижимых для человеческого разума), – не значит ли это, что выяснить стратегическое назначение этого оружия можно будет только в процессе его применения? Если потенциальный противник обучает свой ИИ в режиме секретности, как вообще узнать, кто побеждает и кто отстает в гонке вооружений?
Критическая точка традиционной войны – психология противника, именно против нее направлены стратегические действия. Но у алгоритма нет психологии, морали или сомнений, у него есть только его инструкции и цели. Поскольку ИИ может развиваться и меняться в процессе использования, ни одна из сторон не сможет точно предвидеть, каковы будут результаты (и сопутствующий ущерб) от применения ИИ, – в лучшем случае у них будет приблизительное представление об этом. И тогда стратеги и инженеры будут стремиться создать оружие, рассчитанное на скорость, широту воздействия и степень поражения – параметры, которые могут сделать такие конфликты более обширными и интенсивными.
Мы не призываем к разоружению или стратегии одностороннего отказа от вооружений – такое крайне редко возможно на практике. Как и в других стратегических областях, гарантия безопасности в случае с ИИ – сильная защита. Но, вооружаясь, потенциальные противники обязаны тщательно разобраться в том, что произойдет с внедрением ИИ в военное дело. Какой станет война – более гуманной и точной или более жестокой?
ИИ и машинное обучение меняют стратегические и тактические возможности сторон, расширяя действие существующих классов оружия. ИИ делает обычное оружие не просто более точным – теоретически он может нацелить оружие на конкретного человека или объект
[56]. Если военные или террористические группы будут использовать такие возможности для нападения на отдельных военных, политических, деловых или общественных лидеров, характер войны существенно изменится. Наступательный ИИ может научиться проникать в систему защиты без традиционной кибератаки, путем изучения огромных массивов информации. Оборонительный ИИ может находить и устранять уязвимости защиты до того, как ими воспользуется противник.
Темп военных действий, проходящих под управлением ИИ, неминуемо вырастет. Это может привести к появлению полностью или почти полностью автоматизированных систем обороны и контратаки (считается, что советская сторона занималась разработкой таких систем еще во время холодной войны). Результат автоматической отработки функций таких систем может выглядеть аналогично выполнению взаимосвязанных мобилизационных планов и обязательств, которые привели к катастрофе Первой мировой войны, – но без участия или почти без участия человека.
Если страна столкнется в бою с противником, который внедрил ИИ, обученный управлять самолетами и принимать самостоятельные решения о применении оружия, – какие изменения в тактике, стратегии или готовности прибегнуть к эскалации (возможно, ядерной) это вызовет? Какую реакцию вызовет отказ державы подтвердить или опровергнуть применение боевого ИИ?
Если говорить не только о классических боевых действиях, ИИ открывает новые горизонты возможностей в информационном пространстве – как в области мониторинга, так и в области дезинформации и подрывной деятельности. Генеративный ИИ может создавать огромные объемы ложной, но правдоподобной информации – включая искусственно созданных личностей, изображения, видео и речь, что особенно критично для свободных обществ. В общем доступе могут оказаться выглядящие реалистичными фотографии и видеозаписи, на которых общественные деятели говорят то, чего они никогда не говорили. Теоретически ИИ можно использовать для определения наиболее эффективных способов доставки дезинформации и ее адаптации к предубеждениям и ожиданиям общественности. Если противник использует фальсифицированные видео и изображения национального лидера для разжигания розни или распространения ложной информации, сможет ли общественность, включая правительства и официальных лиц, вовремя распознать обман?
В отличие от ядерной сферы, для такого использования ИИ не существует четкой концепции сдерживания (или степени эскалации при применении). Оружие с поддержкой ИИ (как физическое, так и кибернетическое) активно разрабатывается и, возможно, уже применяется
[57]. Державы, обладающие ИИ (как государства, так и негосударственные субъекты), будут развертывать машины и системы, использующие быструю логику, эмерджентное и эволюционирующее поведение для нападения, защиты, наблюдения, распространения дезинформации, а также выявления и уничтожения ИИ противников. Некоторые достижения будут засекречены или использованы неожиданно, другие, напротив, будут широко пропагандироваться в качестве меры сдерживания. И когда ИИ столкнутся друг с другом во время военных действий, это приведет к результатам, которые трудно предсказать.