Я чуть ли не видел, как в его голове вертятся шестеренки, когда он обдумывал ответ.
— В мою программу устранителя неполадок заложены специфические подпрограммы, позволяющие определять, тестировать, делать выводы и ремонтировать продукцию, которая возвращена на завод как поврежденная. Эти подпрограммы всегда активны.
— Иными словами, ты запрограммирован с изрядным любопытством и достаточной обучаемостью, чтобы заметить и устранить кучу разнообразных поломок, — прояснил я для себя. — Потому ты и задаешь вопросы… Но откуда у тебя способность составлять собственное мнение?..
— Это не мнение, сэр, — сказал он.
— Неужели? — возмутился я, раздраженный тем, что мне перечит машина. — Что же это тогда такое?
— Выводы, — отозвался Моуз.
— Мой гнев испарился, сменившись кривой улыбкой. Я бы ответил ему одним словом: «Семантика» — но следующие полчаса мне пришлось бы объяснять смысл этого понятия.
Мы болтали о том о сём, в основном о заводе и его деятельности, пока я совершал обход, и, как это ни странно, компания Моуза оказалась удивительно приятной, даже несмотря на то, что он машина. Потому я не отпустил его, даже когда успешно завершил первый обход здания. К тому же в ту ночь никаких ремонтных работ не требовалось.
Когда утренние лучи солнечного света пробились в здание через затянутые грязной пленкой окна, я осознал, что первый раз со дня смерти Кэти провел время «в компании» с кем-то (в этом случае — с чем-то). С тех пор как я убил ее, я не позволял себе ни с кем сближаться, даже просто разговаривать по душам, и вот теперь проговорил с Моузом всю ночь. Ладно, он не был лучшим собеседником в мире, но я предварительно оттолкнул прочь всех — из страха, что в моем обществе они неминуемо попадут в беду, как это случилось с Кэти. До меня дошло, что робот не может попасть в беду из-за меня, потому что я не смогу убить вещь, изначально не являющуюся живой.
Возвращаясь домой на поезде, я оценил результаты этого «тонкого» наблюдения. В тот момент я размышлял о последней теме нашего с Моузом разговора, перед тем как отпустить его на рабочую станцию. Я как раз тянулся к заветной бутылочке, припрятанной в секретном местечке, когда он заставил меня вздрогнуть одним из своих обезоруживающих выводов.
— Эта субстанция портит ваше программирование, сэр. Вы должны воздерживаться от ее употребления во время работы.
Я пристально уставился на него, едва удерживая злобный протест на кончике языка, когда осознал, что сегодня я был более внимательным и собранным, чем в любую свою смену последние месяцы. Фактически, на этой неделе я в первый раз завершил каждый из обходов по графику. И все это потому, что не хлебнул ни капли алкоголя с самого начала смены.
Чертов робот был прав.
Я долго смотрел на него, прежде чем ответить:
— Мое программирование было повреждено до того, как я начал пить, Моуз. Я сломался.
— Могу ли я предложить некоторый ремонт, чтобы помочь вам функционировать более эффективно, сэр? — осведомился он.
Онемев, я обдумывал ответ — и на сей раз не воздействие алкоголя связывало мне язык. Что же могло побудить робота добровольно и самостоятельно предложить подобное решение?
Я пристально посмотрел на всегда бесстрастное лицо робота. «Должно быть, так работает его программа устранения неисправностей», — подумал я, а вслух сказал:
— Люди устроены не так, как механизмы, Моуз. Мы не можем постоянно исправлять свои поврежденные или порой барахлящие элементы.
— Я понимаю, сэр, — откликнулся Моуз. — Также не все механизмы подлежат починке. Тем не менее дефектные части могут быть заменены новыми, чтобы функционировало целое. Разве у людей не так?
— В некоторых случаях, — ответил я. — Конечно, можно заменить отказавшие конечности и большинство внутренних органов искусственными, однако поврежденный мозг заменить нельзя.
Моуз снова задрал голову вверх и чуть набок:
— Разве его нельзя перепрограммировать?
Я помолчал, тщательно обдумывая ответ:
— Не так, как ты это понимаешь. Иногда уже и перепрограммировать нечего.
Ясный образ Кэти, смеющейся над одной из моих давно забытых шуток, четко вспыхнул в мозгу, обратился в другую Кэти, пустой оболочкой лежащую на больничной кровати, и отозвался тяжелой болью в сердце.
Мои пальцы автоматически обхватили стоящую на столе бутылку, и я заставил себя продолжать говорить, только бы стереть образ Кэти из мыслей.
— Кроме того, мозг человека управляется по большей части эмоциями, и никакое перепрограммирование не может ни влиять, ни даже контролировать реакцию на наши чувства.
— Значит ли это, что эмоции являются отклонением от нормы в вашем программном обеспечении?
Я почти впал в ступор. Никогда не рассматривал этот вопрос с такой точки зрения.
Не совсем так, Моуз. Наши эмоции временами могут привести нас к ошибкам, но они являются ключевым элементом, который позволяет нам быть чем-то большим, чем программирование. (Интересно, черт побери, эта железяка хочет, чтобы я объяснил ему человеческую природу!) Проблема с эмоциями такова, что они по-разному воздействуют на каждую нашу программу, потому два человека, основываясь на одном и том же, скажем так, наборе данных, не обязательно примут одинаковые решения.
Звук кардиомонитора с прямой линией эхом отозвался во всех закоулках моего мозга. Если я принял верное решение, то почему эта пытка мучает меня денно и нощно? Я не хотел думать о Кэти, но каждый мой ответ приводил к мыслям о ней.
Оказывается, Моуз снова что-то говорил, и, несмотря на настоятельный позыв протянуть руку к бутылке, вцепиться в нее и сделать умопомрачительный глоток, я обнаружил некоторое любопытство к его словам.
— Будучи механизмом, я получил от людей информацию о том, что есть правильное действие, а что — неправильное, — начал он. — Однако эмоции человека могут вызывать неисправности в функционировании, даже если вы делаете нечто, подразумеваемое правильным. Очевидно, у людей присутствует некая принципиальная погрешность в конструкции. Но вы утверждаете, что этот изъян позволяет вам быть совершеннее машин. Я не понимаю, как такое возможно, сэр.
Ну, скажу я вам, эта проклятая машина была полна удивительных сюрпризов! Он мог вычленить ошибку — в конструкции механизма или в словесной формулировке — быстрее чем… да что угодно! Я успел подумать лишь одно: «Как, черт побери, я могу показать тебе, что ты ошибаешься, когда я не знаю, верю ли самому себе?».
Я поднял бутылку к свету, с минуту глядел на гипнотически плещущуюся янтарную жидкость, а после неохотно припрятал ее подальше в ящик стола и сосредоточил все внимание на Моузе.
— В людях имеется нечто особенное, и это необходимо знать, если ты хочешь понять нас, — сказал я.
— Что же это, сэр? — почтительно спросил он.
— Наши изъяны, под которыми я понимаю наши ошибки в суждениях и решениях… обычно это и есть то, что дает нам возможность совершенствоваться. У нас есть способность индивидуально и коллективно учиться на этих самых ошибках. — Не знаю, почему мне показалось, что он остался при своем мнении, ведь его лицо не меняло выражения, но это заставило меня подыскать понятный ему пример. — Смотри на это так, Моуз. Если робот в цеху совершит ошибку, он будет ее повторять, пока ты или программист не придете ему на помощь. Но если человек допустит ту же самую ошибку, он проанализирует, что сделал неверно, и исправит ее. (Во всяком случае, если он не конченый засранец или у него хорошие стимулы.) Он больше не совершит эту ошибку, в то время как робот будет повторять ее бесконечно, пока кто-то извне не исправит положение.
Будь у роботов эмоции, я бы поклялся, что Моуз выглядел удивленным. Я ожидал его обычного «я не понимаю, сэр» — да и что может машина по-настоящему понять о лабиринтах человеческого разума, — но он снова умудрился преподнести мне сюрприз.
— Вы дали мне довольно много информации для размышлений, сэр, — сказал Моуз, снова задирая голову вверх и набок. — Если мой анализ этих данных верен, та субстанция, которую вы употребляете, мешает вам должным образом определить причину или даже сам факт наличия вашей проблемы. Значит, ваше программирование не повреждено, как вы утверждали ранее. Скорее всего, испорчено непосредственное окружение программы.
Даже час спустя, когда я сошел с поезда и неровным шагом направился в торговый пассаж, мой мозг сверлила последняя фраза робота, его «вывод». Я был настолько обескуражен правотой этого утверждения, что даже не мог сформулировать адекватный ответ, а потому просто приказал Моузу вернуться на рабочую станцию.
И когда я свернул и прошагал еще по одной безымянной улочке — все они казались мне одинаковыми, — то попытался обнаружить ошибки в словах робота, но не смог. Но ведь он всего лишь машина! Как он сумел понять, что смерть любимого человека сеет панику и несет разрушение разуму любящего, особенно сознающего свою ответственность за эту смерть?!
Затем почти забытый голос в моей голове — тот самый, который я обычно глушил выпивкой, — спросил меня: «А разве алкогольное подавление всякой мысли о совместной жизни с Кэти как-то почтит ее память?». Потому что, сказать по правде, мое пьянство было вызвано отнюдь не чувством вины за ее смерть. Я не мог думать о будущем, где не было Кэти.
Через пятнадцать минут я вошел в пассаж, даже не заметив последних нескольких пройденных кварталов, и «на автомате» двинулся в направлении бутербродной лавчонки, куда я последнее время зачастил. Люди что-то покупали, болтали, куда-то спешили, жили полной жизнью, занимаясь повседневными делами, но каждый раз, когда мой взгляд задерживался на витрине, я видел Кэти в образе манекена и должен был тряхнуть головой или быстро поморгать, чтобы вернуть реальную картинку.
Только добравшись до жалкого закутка торгового комплекса, где размещались винный магазинчик, захудалое телеграфное агентство, куда я никогда не заходил, да грязноватая бутербродная, которая снабжала меня едой, я начал расслабляться. Это было единственное место, где меня не одолевали воспоминания. Кэти никогда не стала бы питаться здесь, но забегаловка с отслаивающейся краской на стенах и дешевой жирной пищей на бумажных тарелочках была мне желанным пристанищем только из-за укромного столика в темном углу, где владелец разрешал мне втихомолку выпивать — раз уж я покупал у него еду.