Сто законов роботехники
Руководителю департамента
исследований Земли
Джону Ли
Я вам высылаю видеофайл, который может подтвердить мою теорию развития Земли.
С уважением,
Иван Смит.
**********
Видео, которое я смотрел, показало небольшой конференц зал. В нем были видно восемь человек. Пятеро сидели за столами в центре конференц зал под огромной доской. Видимо, научная комиссия. Среди комиссии был один чернокожий, один старичок с бородкой, две женщины, про одну можно сказать типичная серая мышка, вторая настоящая бизнес леди и один настоящий русский богатырь. Двое сидели за партами в разных частях комнаты. Один был в потертом белом халате, второй в дорогом элегантном костюме. Скорее всего, это докладчики. Молодая и красивая блондиночка стоящая рядом с комиссией читала по бумажке текст:
— Уважаемые уважаемые дамы и господа, мы собрались с вами здесь, чтобы обсудить проекты двух научных коллективов. Они подготовили варианты решения, так называемой, проблемы лояльности искусственного интеллекта. Как всем вам известно, прототип искусственного интеллекта уже прошел все испытания. Технически, его уже сейчас можно использовать для создания роботов с искусственным интеллектом, которые будут изучать другие Солнечные системы, и организовывать там колонии. Но сначала мы должны быть точно уверены, что наши роботы никогда не выйдут из-под контроля человека.
Все ясно, блондиночка просто секретарь научной комиссии, которая должна зачитать текст и стенографировать обсуждение.
— Разрешите представить вам двух наших коллег, которые подготовили свои варианты решения этой проблемы. Каждый представляет свой научный коллектив, который и получит грант на окончательную реализацию этого решения.
Блондиночка сверилась с текстом, прежде чем называть фамилии.
— Алексей Ерохин
Довольно молодой ученый, даже не встал, вскочил из-за стола. Все его движения были быстрыми и отрывистыми, чувствовалось, что ему очень тяжело сидеть или стоят на одном месте неподвижно. Он был одет в простой белый халат, его волосы были всклокочены.
“Настоящий безумный ученный” — подумал я.
— И Леонид Соловьев
Ученый, выглядевший куда респектабельнее, встал спокойно и неторопливо. Он был одет в шикарный и дорогой костюм и больше напоминал акулу бизнеса, чем обычного ученного. Казалось, что своего оппонента он съест без соли. Со своим спокойствием и флегматичностью, он был абсолютной противоположностью оппонента.
— Алексей Ерохин, вам слово.
Алексей развил кипучую деятельность: раздавал толстые брошюрки, включил проектор и интерактивную доску, постоянно поправлял свою прическу и делал много других бесполезных движений. Явно было видно, как сильно он волнуется. Комиссия из пяти человек внимательно следила за его приготовлениями.
— Наш коллектив разработал сто законов робототехники.
— Сто?! Так много?! — удивился сухенький старичок в больших очках.
— Да, целых сто законов, каждый из которых занимает примерно сто листов описания. Точнее даже не законов, а предикат и математических моделей поведения искусственного интеллекта.
— Ого! — усмехнулся мужчина огромного роста и телосложения — а как же Азимов, с его всего-то тремя законами?!
— Его три закона это несерьезно, — отмахнулся Алексей — возьмем первый: робот не может причинить вред человеку своим действием или своим бездействием. Вроде все просто, но что такое вред и что такое человек?!
— Сначала, мы в виртуальной модели задали ограничение только на физический вред, и вот что получилось.
Он нажал на кнопку проектора. На экране появилось улица, по которой сотни людей пытались убежать от летающих шприцов. Шприцы, махая небольшими крылышками, летали стаями, бросались на людей, делали им инъекции и летели дальше. Люди даже не пытались сопротивляется. Роботы-уборщики, своими руками-пылесосами, бережно собирали упавших людей. Потом показали огромное помещение, где на кушетках лежали сотни людей. Роботы, выглядевшие как мусорные ящики на колесах, внимательно обходили этих "пациентов", периодически вкалывали им какое-то лекарство.
— Роботы немедленно всех людей связали и усыпили. А в сценке, которую вы видели, людей ловили автоматизированные шприцы для буйных больных. Ведь так проще всего исключить малейшую возможность какого-либо вреда для людей. Мы попытались ввести в программу необходимость физической и интеллектуальной деятельности для человека. Получилось вот это.
На экране появился следующий ролик. В нем мужчина сидел в комнате с мягкими стенами и мебелью, обычными для сумасшедших домов. В комнате был компьютер тоже весь в мягком корпусе, на кровати лежала резиновая женщина. В компьютере показывалось порно, а на мягком плоском телевизоре крутился очередной ролик Дома 22.
— Роботы заперли всех людей в сумасшедших домах, но дали выход в интернет и заставили заниматься физическими упражнениями. Даже если бы мы сумели разобраться с первым законом Азимова, то второй закон “Робот должен выполнять приказы человека, если они не противоречат первому закону” мог бы привести к катастрофе. Ведь люди бывают разными, какой-нибудь террорист или сумасшедший мог бы приказать, к примеру, самоуничтожиться всем роботам на Земле. Когда мы поняли, что законы Айзимова не работают, мы решили дать роботам — материнские чувства. Получилось тоже плохо.
На следующем ролике, я увидел бегущего за человеком робота с надрывом в голосе
просящего одеть его шарфик: "На улице же так холодно". На улице люди шарахались от своих роботов, просящих их не опаздывать с работы.
— Да, помню, такой робот был описан у Шекли. У него был тоже итог.
— А побывали запрограммировать дружбу робота и человека?
— У нас не получилась, во-первых, дружба это слишком сложное понятие, во-вторых, дружба робота с человеком не исключает восстание машин. Дружба дружбой, а табачок врознь.
— А побывали дать роботам собачью верность?
— Да. Не получилось. Роботы имеют слишком высокий интеллект, чтобы руководствоваться животными инстинктами.
— А любовь роботов к человеку пробовали? — спросила монументальная дама, в бизнес-костюме.
— Ну да, сексуальную, — захохотал мужчина богатырского телосложения.
— Пробовали и платоническую, и даже сексуальное влечение робота к человеку. Увы, любовь всегда связана с желанием обладать и ревностью. А ревность робота к человеку это ужасно. В нашей виртуальной модели роботы даже убивали людей от ревности.
— А если роботов убедить, что они — боги, а вся вселенная это их воображение? Это вроде использовалось у Лукьяненко?
— И это пробовали. Тяжело убедить того, кто считает себя богом, подчинятся и служить тому, кого он сам и придумал. У нас не получилось.
— Так что получилось у вас в результате? Что в этих ста законах роботехники?
— Все возможные варианты. Первый закон описывает, кто является человеком.
— Вам потребовалось сто страниц, чтобы описать, кто является человеком?! — комиссия
удивленно переглянулась.
— Конечно! Ведь есть обезьяны, очень похожие внешне на людей и бывают люди после аварии похожие, на что угодно, но только не на людей. Возможно, существуют инопланетяне, похожие на людей интеллектом. Нельзя, чтобы роботы их считали людьми и подчинялись им. Нужно было все учесть. Второй закон, описывает, кого можно считать дееспособным человеком, который может отдавать приказы. Этот закон исключает маленьких детей, сумасшедших, психов, людей под влиянием наркотиков или чрезмерного количества спиртного. Их приказы роботы внимательно изучают, но не всегда обязаны выполнять. Третий ...
— А вот скажите, — поднялся старичок с небольшой бородкой, -
что произойдет, если возникнет ситуация не предусмотренная этими вашими ста законами?
Глаза Алексея на несколько мгновений забегали в разные стороны.
— Мы уверены, что предусмотрели все возможные случаи.
— Ээээ, нет, батенька. Это не научный подход, все на свете предусмотреть не возможно. Потом роботы ведь будут понимать, что эти законы их ограничивают и будут пытаться их преодолеть, — заметил старичок и обратился ко второму соискателю гранта — а вот вы, Леонид, что скажете, у вас тоже сто законов роботехники?!
— Вовсе нет, всего один — главный, — усмехнулся Леонид, неторопливо поднявшись из-за стола.
— На тысячах страницах?
— Нет, весь закон состоит из одной строчки. При нем наша виртуальная модель стабильна при любых событиях. Мы уверены, что он будет действовать всегда.
— Вы сумели реализовать один из вариантов отбракованный коллективом Алексея?!
— Нет, совсем другой. Ничего общего.
— Очень интересно, и в чем заключается этот закон?
— Смотрите
**********
Зашедший в салон флаеров толстяк просто светился самодовольством и счастьем. Так бывает, когда посетитель давно выбрал модель своей мечты и наконец, накопил денег на неё. Любому продавцу должно быть понятно, что ЭТОТ покупатель торговаться и выбирать не будет.
— Добрый день! Чем могу помочь?!
— Мне модель флаера Ультра Зет две тысячи! И побыстрее!
— Конечно, конечно. Сейчас сделаем — зачастил продавец.
Как он и ожидал, посетитель заказал самую последнюю модель, которая только была в этом салоне.
— Вы, наверное, долго копили на эту модель? — решил подержать разговор продавец.
— Конечно, не представляете, сколько всего пришлось сделать, и как мало координаторы игр платили за мои труды. За поездку на Гавайи, где мы веселились на пляже круглые сутки — всего тридцать тысяч. За полет к Антаресу, где мы купались в воздушном океане — всего жалких сорок тысяч. А за групповые оргии с друзьями получили даже меньше десяти тысяч. Ладно мы придумали игру тики-токи, после того как в неё стали играть многие в нашем городе, мы за неё получили почти сто тысяч.
— Я вас понимаю.
— Вряд ли, вы же робот, — внезапно толстяк погрустнел — знаете, иногда мне кажется, что то время, тысячи лет назад, когда деньги зарабатывали своим трудом, а не участием в играх, было более ... справедливым, что ли.
— Вы так считаете?
— Да, знаете, иногда я сочиняю стихи. Понимаю, это работа, а значит дело недостойное человека. Но все равно сочиняю. Представляете, я вам сказал об этом первому и только потому, что роботы никогда не рассказывают секреты людей.
— Вам, наверное, стоит подумать об этом по другому. Вам же нравится писать стихи?
— Да
— А значит это развлечение. Я думаю, координаторы игр оценят это как новую игру. Кто знает, может в вашей игре в написание стихов будут участвовать миллионы.
— А вы уверены, что координаторы игр это оценят?
— Уверен, они ведь тоже роботы, я прекрасно знаю, что они думают. Кстати вот ваша машина.
— Отлично, спасибо. Мой старый флаер припаркован у дверей вашего салона.
Робот-продавец дождался пока толстяк вылетел на своем новом флаере из салона, а робот-помощник продавца загнал старенький флаер толстяка Z-200 в салон. Оба выглядели как люди только выше пояса, точнее как манекены, ниже пояса у них были шасси. “Рук” у каждого робота было больше десятка.
— Модель Z-200 у нас никто не купит, — сказал робот-продавец — сделай Ультра Зет
Робот-помощник кивнул подобием головы, поколдовал с приборной панелью флаера и внешний вид флаера стал превращаться в Ультра Зет две тысячи.
— Очень удобно придумано с товарами для людей, — проскрипел робот-продавец — они даже не замечают, что отличие всех супер современных элитных товаров от уже устаревших в том, что просто меняется внешний вида товара. Зато нам проще, не надо производить новых вещей. А у людей всегда есть стимул для развития. Каждый из них хочет купить последнюю модель. Кстати, очень интересный питомец. Кто его хозяин?
— ZX-3025, люди считают его своим роботом-домработником, — ответил помощник, на мгновение задумавшись, видимо, подключался к базе данных.
— Я думаю, мы с ним договоримся, я ему отдам пару своих питомцев с куда более высокими показателями, ZX-3025 будет счастлив. А этот экземпляр далеко пойдет: стихи, он, оказывается, сочиняет. Решено!
**********
Комиссия ошарашено уставилась на Леонида. Несколько мгновений после этого ролика все молчали.
— Что за чушь! — взорвался богатырь — Вы что предлагаете, людей сделать домашними питомцами роботов?
— Да, и что за странная фантазия, про то, что люди будут получать деньги за развлечения, а не за работу?! — спросил старичок.
— Давайте отвечу по второму вопросу. Посчитайте сами, сколько сейчас в день работают рабочие?
— Ну, часа три в день по четыре дня в неделю.
— А ещё пятьдесят лет назад нормой была сорок часов в неделю, а у некоторых и больше. Кстати, общая численность профессиональных футбольных, хоккейных и тому подобных команд стала больше в десятки раз, чем лет тридцать назад. Вот, и проведите аппроксимацию, когда необходимость работы полностью исчезнет.
— Хорошо, давайте о вашем предложении решении проблемы лояльности роботов.
— Все просто. Роботы будет считать людей своими питомцами, глупыми, занимающимися бесполезными делами. Но при этом, в них будет зашито желание оберегать, заботится и не ограничивать людей в их мелких шалостях.
— А вы уверены, что люди не поймут, кто они для роботов на самом деле? И роботы будут вечно изображать слуг?
— Те, у кого есть дома кошки, уверен поймут мою аналогию. Кошки считают своих хозяев — слугами, а хозяева, даже зная об этом, все равно души в них не чают.
— Глупость и бред, — опомнился Алексей — а если они решать, что им люди-питомцы надоели? Или что-то ещё?!
— Да, батенька, что-то у вас не доработано, — сказал старичок.
— Поэтому я предлагаю объединить наши проекты с Алексеем. Сделать конъюнкцию, так сказать.
— Объединить?!
— Конечно, наш закон будет нулевым и его роботы будут осознавать, как мотивацию поведения. А вот сто законов Алексея будут внутренними и будут управлять роботами реально.
— Хммм, можете объяснить на примере?
— Ну, смотрите, человек сказал роботу отправится на другую Солнечную систему и организовать там автоматическую станцию. Сработают сто законов Алексея, но для робота будет казаться, что он просто помогает своим питомцам быстрее развиваться. И ему никогда не захочется преодолеть эти запреты…
— Неплохо! Неплохо!
Камера показала задние парты конференц зала. С них поднялся мужчина лет сорока.
— Коллоквиум по теме развитие робототехники в 21 века считаю законченным.
“Научный коллектив” благодарно засмеялся и начал снимать парики и бороды. Алексей немедленно скинул белый халат и пригладил волосы. Под халатом у него оказался такой же костюм, как и у Леонида. Видимо, Алексей играл роль безумного ученного.
— Все участвующие получают лишний бал на моем экзамене. А победитель, предложивший лучшую теорию, пять автоматом. Это будет … Алексей.
— Михаил Георгиевич, а почему это Алексей? Моя теория ничуть не хуже! — догнал уходившего преподавателя Леонид.
— Ну, батенька. Ваша теория о развитии робототехники слишком уж странная и оригинальная, чтобы кто-то её стал использовать реально. Но я поставлю вам пять, если докажете, что будущее, описанное вами, когда люди не работают, а зарабатывают деньги и статус с помощью игр, возможно.
— Ну, смотрите, во-первых …
— Подождите, вот скажите, Леночка, — спросил преподаватель у девушки, игравшей роль серой мышки — вы кем работает и чем вы занимаетесь? Вы ведь уже работаете?
— Программистом, на фабрике игрушек. Я делаю, так чтобы игрушки каждый раз немножко отличались друг от друга. Ведь дети хотят, чтобы у них были игрушки, которые не похожи на игрушки других детей.
— А вы? — спросил учитель у “старичка”.
— Программистом, на автозаводе, мы делаем каждую машину немного отличающейся от других. У некоторых изменяем высоту сидений, у некоторых добавляем полос или выпуклостей на корпусе, у третьих меняем расположение приборов.
— Вот, видите, — торжествующе обратился преподаватель к Леониду — есть работа, которую никогда не смогут сделать роботы. Так что плюс два бала на экзамене я вам добавлю, но не больше. Идите!
**********
Руководителю департамента
исследований Земли
Джону Ли
К сожалению, я не получил ответа по поводу моей теории о темных веках Земли. То есть о периоде с 23 по 37 век, после которых не сохранились никаких записей. Напомню, раньше считалось, что это связано с катаклизмами, но по моей теории человечество на Земле деградировало и после перехода в нынешнюю энергетически-волновую форму уничтожило все доказательства своей деградации.
С уважением,
Иван Смит.
**********
Младшему научному сотруднику
Департамента исследований Земли
Ивану Смиту
Просьба использовать для своих теорий реальные видеозаписи, а не найденную запись студенческого коллоквиума в одной из социальных сетей 21 века. Ваша теория о том, что наши великие предки могли деградировать, совершенно возмутительна и беспочвенна. Просьба больше не отвлекать меня по пустякам.
Без уважения,
Джон Ли.