ТВОРЧЕСТВО

ПОЗНАНИЕ

А  Б  В  Г  Д  Е  Ж  З  И  Й  К  Л  М  Н  О  П  Р  С  Т  У  Ф  Х  Ц  Ч  Ш  Щ  Э  Ю  Я  AZ

 


– Само собой разумеется.
– Не думаю, чтобы это понимал средний человек – иначе средний человек сознавал бы, что робот способен на убийство.
– Безумие! Бред! – с лица Либича сползла всякая краска.
Бейли внимательно рассматривал свои пальцы. – Но ведь робот может выполнить невинное задание – ничего такого, что причинило бы вред человеку?
– Если ему прикажут.
– Да, конечно. Если ему прикажут, И второй робот тоже может выполнить невинное задание – ничего такого, что причинило бы вред человеку? Если ему прикажут?
– Да.
– а что, если эти два невинных задания, сами по себе совершенно безобидные, вместе взятые приведут к убийству?
– Что? – свирепо нахмурился Либич.
– Мне нужно ваше мнение как эксперта. Приведу вам условный пример. Предположим, человек говорит роботу: «Влей немного этой жидкости в стакан с молоком, который ты найдешь там-то и там-то. Эта жидкость безвредна. Я хочу только узнать, в какую реакцию она вступает с молоком, Когда я это узнаю, молоко будет вылито. Выполнив задание, забудь о нем».
Либич, все еще сердитый, молчал.
– Если бы я велел роботу влить таинственную жидкость в молоко, а затем подать молоко человеку, Первый Закон заставил бы его спросить: «Что это за жидкость? Не повредит ли она человеку? Даже если бы робота заверили, что жидкость безвредна, Первый Закон все же заставил бы его усомниться в том, и он отказался бы подать молоко. Но ему сказали, что молоко выльют, Первый Закон не включается. Разве робот не выполнил бы подобный приказ?
Либич молча злобно смотрел на Бейли.
– Второй же робот, который наливал молоко, – продолжал тот, – не знает, что в него что-то добавили. В.полном неведении он подает молоко человеку, и человек умирает.
– Нет! – выкрикнул Либич.
– Почему же нет? Оба задания сами по себе безобидны. Только вместе взятые они ведут к убийству. Вы же не станете отрицать, что нечто подобное возможно?
– Тогда убийцей будет человек, который отдал эти приказы! – крикнул Либич.
– С философской точки зрения – да. Но убийцами-исполнителями, орудиями убийства, будут роботы.
– Ни один человек не станет отдавать таких приказов.
– Станет. Уже отдал. Именно таким образом должно было совершиться покушение на убийство Грюера. Вы ведь слышали о нем?
– На Солярии слышишь все и вся.
– Значит, знаете, что Грюер был отравлен за обедом на глазах у меня и моего партнера, аврорианца господина Оливо. Вы можете предложить другой способ подать ему яд? Никого из людей в имении не было – вам как солярианин, нет надобности объяснять почему,
– Я не детектив и не выдвигаю гипотез.
– Вот я вам и предлагаю гипотезу. И хочу знать, насколько она реальна. Хочу знать, могут ли двое роботов произвести два раздельных действия, которые сами по себе безобидны, но вместе ведут к убийству. Вы эксперт, доктор Либич, Возможно ли такое?
– Да, – ответил загнанный в угол Либич так тихо, что Бейли с трудом расслышал ответ.
– Очень хорошо. Вот вам ваш Первый Закон.
Приспущенное веко Либича пару раз передернул тик. Он разнял свои сжатые руки, но пальцы остались согнутыми, будто каждая рука продолжала сжимать другую, призрачную. Либич опустил руки на колени, и только тогда пальцы распрямились. Бейли рассеянно наблюдал за его действиями.
– Теоретически возможно, – сказал Либич. – Теоретически! Вам так легко не разделаться с Первым Законом, землянин. Нужно очень умело формулировать приказы, чтобы обойти Первый Закон.
– Согласен, – сказал Бейли. – Я всего лишь землянин и в роботах ничего не понимаю, а приказы, которые приводил в пример, сформулировал условно. У солярианина, я уверен, это получилось бы куда лучше.
Либич, как будто не слыша, громко сказал:
– Если робота молено хитростью заставить причинить вред человеку, это означает только то, что позитронный мозг нужно совершенствовать. Следовало бы, собственно, усовершенствовать человека, но это не в нашей власти – значит, надо повышать дуракоустойчивость робота. Мы прогрессируем. Наши роботы стали разнообразнее, профессиональнее, способнее и безвреднее, чем были век назад. А через сто лет мы добьемся еще большего. Зачем заставлять робота управлять машиной, если можно снабдить позитронным мозгом саму машину. Это специализация, а возможна и универсализация. Почему бы не создать робота со съемными и сменными конечностями? А? Если бы…
– Вы единственный роботехник на Солярии? – прервал его Бейли.
– Не говорите глупостей.
– Я только спрашиваю. Доктор Дельмар, например, был единственный… э-э… фетоинженер, не считая его ассистентки.
– На Солярии около двадцати роботехников.
– И вы – лучший?
– Лучший, – ответил Либич без ложной скромности.
– И Дельмар работал с вами.
– Да.
– Насколько я понимаю, перед смертью он собирался прервать ваше сотрудничество.
– Ничего похожего. Кто подал вам эту мысль?
– Сдается мне, он не одобрял вашего холостого образа жизни.
– Наверное. Он был истинный солярианин. Но это не влияло на наши деловые отношения,
– Чтобы сменить тему: вы ведь не только разрабатываете новые модели, но также выпускаете роботов и ремонтируете их?
– Производством и ремонтом занимаются в основном сами роботы. В моем имении есть большой сборочный завод и ремонтная мастерская.
– Ремонтировать роботов очень сложно?
– Очень просто.
– Значит, техника ремонта недостаточно развита?
– Это вовсе не так.
– А как же тот робот, что присутствовал при убийстве доктора Дельмара?
Либич отвел глаза и сдвинул брови, будто в глубокой печали.
– С ним ничего нельзя было сделать.
– Так-таки ничего? Он совсем не мог отвечать на вопросы?
– Ни на один. Бесполезно было и пробовать. Позитронный мозг замкнуло необратимо. Не осталось ни одной неповрежденной схемы. Поймите – он был свидетелем убийства, которому не мог помешать.
– А почему, кстати?
– Кто знает? С ним экспериментировал доктор Дельмар. Я не знаю, в каком умственном состоянии находился робот. Дельмар, например, мог ему приказать приостановить все операции, пока исследовалась одна определенная схема. Если кто-то, кого ни доктор Дельмар, ни робот ни в чем дурном не подозревали, вдруг совершил смертоносное нападение, должно было пройти какое-то время, чтобы потенциал Первого Закона в мозгу робота преодолел блокирующий приказ Дельмара. Время задержки зависит от способа нападения и от формулировки приказа. Могу вам подобрать еще с дюжину причин, по которым робот не мог помешать убийству. Так или иначе, Первый Закон был нарушен, оттого и сгорели все схемы в позитронном мозгу.
– Но если робот физически не мог помешать убийству, разве он несет за это ответственность? Разве Первый Закон требует невозможного?
Либич пожал плечами.
– Первый Закон, несмотря на ваши попытки умалить его, защищает человека до последнего.
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53