И, как мы уже увидели, наш моральный компас слишком часто сбивается с курса неистребимой потребностью генерировать надежду за счет конфликтов. Как говорит специалист по психологии морали Джонатан Хайдт, «мораль сковывает и ослепляет»
{302}. Наш Чувствующий мозг – отжившее, устаревшее программное обеспечение. А Думающий мозг работает хоть и качественно, но слишком медленно и неуклюже. Спросите Гарри Каспарова.
Мы вид, который ненавидит и истребляет сам себя
{303}. Это не морализаторство, это просто факт. Вот то самое внутреннее напряжение, которое мы все постоянно чувствуем, – как раз оно нас к этому и привело. Из-за него мы тут и оказались. Это все наша гонка вооружений. И мы вот-вот передадим эстафетную палочку главным процессорам следующей эпохи – машинам.
Когда Илона Маска спросили, что сейчас больше всего угрожает человечеству, он быстро ответил, что существует три главные угрозы: первая – широкомасштабная ядерная война, вторая – изменение климата… а перед тем, как назвать третью, он замолчал. Его лицо помрачнело. Он опустил глаза и ушел в свои мысли. Тогда интервьюер спросил: «Так а что же третье?» Маск улыбнулся и сказал: «Надеюсь, компьютеры решат относиться к нам хорошо».
Многие опасаются, что ИИ уничтожит человечество. Некоторые подозревают, что все может пойти по драматичному сценарию «Терминатора-2». Другие боятся, что машины убьют нас «случайно», что ИИ, разработанный для поиска более эффективного способа производства зубочисток, внезапно решит, что лучшее сырье для них – человеческие тела
{304}. Билл Гейтс, Стивен Хокинг и Илон Маск – лишь несколько примеров ведущих мыслителей и ученых, которые уже обделались от осознания того, как быстро развивается ИИ и насколько мы как вид не готовы к последствиям его развития.
Но я считаю, что бояться этого как-то глупо. Хотя бы потому, что как можно подготовиться к чему-то намного более умному, чем ты сам? Это все равно что учить собаку играть в шахматы с… тем же Каспаровым. Как бы собака ни старалась и ни готовилась, толку не будет.
И что еще важнее, понимание добра и зла у машин будет, скорее всего, превосходить наше. Сейчас, когда я пишу эти строки, в мире бушует пять геноцидов
{305}. 795 миллионов людей голодает или хронически недоедает
{306}. К тому моменту, как вы дочитаете эту главу, в одних только США более ста человек будут избиты, изнасилованы или убиты членом своей семьи в собственном доме
{307}.
Несет ли ИИ потенциальную угрозу? Безусловно. Но с моральной точки зрения мы бросаемся камнями, сидя в доме из стекла. Что мы знаем об этике, гуманном отношении к животным, окружающей среде или друг к другу? Правильно, почти ничего. В вопросах морали человечество только и делало, что позорилось на протяжении всей истории. Суперинтеллектуальные машины, вероятно, смогут осмыслить жизнь и смерть, творение и разрушение на куда более высоком уровне, чем это когда-либо удавалось нам. И думая, что они решат ликвидировать нас только потому, что мы перестали быть эффективными или можем создавать для них какую-то помеху, мы, как мне кажется, просто проецируем худшие аспекты собственной психологии на нечто такое, чего мы не понимаем и никогда не поймем.
Или вот еще вариант: а что, если технологии дойдут до того, что можно будет изменять индивидуальное человеческое сознание по мере необходимости? Что, если сознание можно будет по желанию дублировать, расширять или урезать? Что, если, избавившись от этих неуклюжих, неэффективных биологических казематов, которые мы называем своими «телами», или от этих неуклюжих, неэффективных психологических казематов, которые мы называем «индивидуальным самосознанием», мы придем к этике и благоденствию совсем другого порядка? Что, если машины поймут, что мы станем намного счастливее, если они освободят нас из наших когнитивных тюрем и расширят наше восприятие собственной личности так, чтобы оно включало всю воспринимаемую реальность? Что, если они решат, что мы просто кучка слюнявых идиотов, и будут развлекать нас суперским порно в виртуальной реальности и кормить офигенной пиццей, пока мы все не умрем собственной смертью?
Откуда нам знать? И кто мы такие, чтобы решать это?
Ницше начал писать свои книги спустя всего пару десятилетий после того, как в 1859 г. было опубликовано «Происхождение видов» Дарвина. К тому моменту мир все еще не оправился от дарвиновских грандиозных открытий и не знал наверняка, как их понимать и как к ним относиться.
Но пока все истерили на тему того, действительно ли человек произошел от обезьяны, Ницше, как обычно, смотрел на вещи под собственным углом. Он принял как данность то, что мы произошли от обезьян. В конце концов, говорил он, почему же еще мы так отвратительно ведем себя друг с другом?
Но вместо того, чтобы обсуждать наше происхождение, Ницше задался вопросом, к чему мы идем.
Ницше говорил, что человек – это мост, хлипко болтающийся на канате над пропастью: позади нас животные, а впереди – нечто большее, чем мы. Всю свою жизнь он посвятил тому, что пытался понять, какое же оно, это нечто большее, и указать нам путь к нему.
Ницше представлял себе человечество, которое вышло за пределы религиозных надежд, «за пределы добра и зла» и поднялось над мелочными склоками противоречащих друг другу систем ценностей. Именно эти системы ценностей подводят нас, ранят и держат на дне эмоциональных ям, которые мы сами себе вырыли. Те же эмоциональные алгоритмы, что воспевают жизнь и заставляют нас парить в неистовом ликовании, крушат и разъедают нас изнутри.
До сих пор технологии задействовали дефектные алгоритмы нашего Чувствующего мозга. Они были направлены на то, чтобы сделать нас менее стойкими и более зависимыми от пустячных развлечений и удовольствий, потому что такие развлечения приносят баснословные доходы. И хотя технологии избавили бóльшую часть планеты от нищеты и тиранов, они породили новый вид тирании: тирании пустого, бессмысленного многообразия, бесконечного потока ненужных вариантов.