Книга Генезис 2075, страница 17. Автор книги Бернард Беккетт

Разделитель для чтения книг в онлайн библиотеке

Онлайн книга «Генезис 2075»

Cтраница 17

Адам ничего не сказал в ответ.

— Снова эта игра в молчанку, — вздохнул Арт.

— Это не игра.

— Так что же это такое? — поинтересовался робот. На его лице не отразилось ни тени неприязни.

— Я не имею привычки разговаривать со стенками, столами и заборами. Или машинами.

— Даже в тех случаях, когда они тебе отвечают?

— Ты мне не отвечаешь. Это не разговор.

— Это еще почему?

— Сам знаешь.

— Нет, не знаю.

— Да, точно. Не знаешь. В этом-то вся суть. Ты ничего не знаешь и не понимаешь, — Форд говорил с напором, будто желая убедить в справедливости своих слов не только андроида, но и самого себя.

— Я понимаю. Проверь меня.

— У меня может не получиться. Вдруг твоя программа окажется достаточно сложной?

— Если моя программа настолько совершенна, что именно ты пытаешься обнаружить?

— В детстве я был знаком с одной девочкой, — начал Адам. — Она постоянно таскала с собой говорящую куклу. Программа у той была простая. Когда куклу поднимали, она говорила: «Привет!» Когда ее гладили по спине, откликалась: «Спасибо!» Могла сказать еще пару-другую слов. Каких именно — не помню. Может, «Я устала». А еще она реагировали на вопросы. Если ее о чем-то спрашивали, она регистрировала изменения в интонации и отвечала «да» или «нет». Наугад. Так вот, моя знакомая обожала эту куклу. Дни напролет разговаривала с ней. Задавала бессмысленные вопросы и приходила в восторг всякий раз, когда слышала ответ. Когда ее брали куда-нибудь без игрушки, девочка ударялась в слезы.

— И ты плакал? — спросил Арт. — Ты ведь плакал, когда меня увезли? Ты это хочешь сказать?

— Я пытался тебя убить, — напомнил роботу Адам.

— Быть может, чувство вины заставило тебя смягчиться. Такое случается.

— Я клоню к тому, что девочка была маленькой. Она выросла. Она перестала верить в куклу.

— А перестав в нее верить, она от нее избавилась?

— Она отдала ее мне, — произнес Форд.

— Значит, я у тебя не первый?

— Мы с приятелем поймали кролика и засунули внутрь игрушки его кишки. Потом привязали ее к рельсам, дождались поезда и все засняли. Было очень смешно.

— Ты это только что придумал.

— Да, правда. Я бы никогда не причинил кукле вреда.

— А ты не боишься?

— Чего?

— Что кукла причинит тебе вред. Ты пытался меня уничтожить. Вдруг я вынашиваю в уме план мести?

— Ты не обладаешь ни сознанием, ни мышлением. Такой довод тебя устраивает?

— Может, я решил дождаться, когда ты уснешь, а потом выпустить тебе кишки ударом ледоруба. Мне сон без надобности, я всегда наготове.

— Если бы меня собирались убить, это уже давно бы сделали.

— Но если это сделаю я, все будет выглядеть как несчастный случай. Ловкое решение маленькой проблемы, возникшей у властей.

— Убьешь меня, так убьешь, — пожал плечами Адам. — Меня это не шибко волнует. Если надо, забирай тело, только не думай, что и душа тебе достанется.

Форд, извиваясь, медленно отполз в дальнюю часть комнаты. Выло видно, что движения причиняют ему боль. Выждав несколько мгновений, Арт последовал за ним.

Человек вздохнул.

— Надеюсь, ты на меня не обидишься, если я скажу, что от тебя дурно пахнет, — начал робот.

— Тебе не под силу чувствовать запах.

— Я не сделаю тебе ничего дурного.

Я не могу причинить тебе вред. Хочешь узнать почему?

— Нет.

— Я все-таки расскажу тебе. Считай это своеобразным наказанием.

— Как у тебя получится меня наказать, если ты не можешь причинить мне вреда? — поинтересовался Адам.

— Иногда наказание может пойти на пользу, — отозвался Арт. — На стадии разработки велось много споров о том, какие именно элементы моего поведения следует подавить. Некоторые (наивные) Философы полагали, что следует избавить меня от всех отрицательных поведенческих элементов, свойственных человеку, однако оказалось, сделать это далеко не так просто. И вот, если робота программировали так, чтобы он всякий раз просчитывал последствия всех своих действий, машину парализовывало. Из-за чудовищной нерешительности, вызванной страхом совершить ошибку, она не могла сдвинуться с места, если ослабляли стремление заботиться о других, робот раньше других отключался от процесса подзарядка и демонтировал конкурирующие прототипы. Я не преувеличиваю, такое и впрямь случалось. Если же со стремлением заботиться о других перебарщивали, автомат начинал работать на износ, во всем стараясь угодить другим. Именно поэтому я здесь и с тобой. Чем больше Философы прикладывали усилий, тем яснее им становилось, что они не в состоянии отличить правильное от ошибочного, хорошее от плохого. Правильное можно оценить только по поступкам. Единственный способ обойти проблему заключался в том, чтобы предоставить андроиду возможность самому во всем разобраться в процессе обучения. Заодно во время общения с человеком он должен был освоить парочку фокусов, которыми люди овладели в процессе эволюции. В результате понятие «добродетель» исчезло из списка основных мотиваций робота. Главным приоритетом стала «совместимость». Однако тебе не о чем беспокоиться. Вне зависимости от того, какие дурные уроки ты мне преподашь, я не смогу причинить вред другому существу, обладающему самосознанием. Это является одним из фундаментальных императивов моей программы.

— Ты же знаешь, мне это неинтересно. Ведь знаешь же, да? — произнес Адам.

— Я тебе не верю, — ответил Арт. — У меня есть специальная программа, детектор лжи. Она сканирует радужную оболочку твоих глаз. Очень хорошая программа.

— Как жаль, что у тебя нет программы, позволяющей тебе понять, какой же ты стал для меня занозой в заднице.

— Честно говоря, у меня и на это есть интересная история.

— Ничего в ней интересного нет.

— Так что, ты действительно хочешь, чтобы я замолчал?

— Пожалуйста.

— Я попробую.

Вход
Поиск по сайту
Ищем:
Календарь
Навигация