Юлия Владимировна

Адам

Адам
Работа №190

Сергей с любопытством открыл электронное письмо и начал читать. Прочитав до конца, он стал перечитывать, ища подвох. Он всё ещё не верил в написанное. Потом он откинулся на кресле и засмеялся: «Да…, вот так вакансия».

Сергей был в поиске работы и периодически ему на электронную почту приходили различные предложения. Но такого предложения он даже не мог себе представить.

Вакансия называлась «Собеседник искусственного интеллекта». В пригласительном письме была настолько общая информация, а главное настолько невероятная, что нельзя было понять, что это за работа. Ясно было, что общение с этим искусственным интеллектом нужно для его обучения.

Сергею хотелось больше понимания. Он тут же взял телефон и позвонил потенциальному работодателю. По телефону ему тоже не дали достаточной информации, но договорились с ним о встрече и сказали, что она займёт несколько часов.

Найти в интернете информацию о данной вакансии ему не удалось. Сама компания-работодатель была ему давно известна, он пользовался многими её электронными сервисами, как пользовались ими миллионы других людей, а это уже указывало на серьёзность предложения.

***

В назначенный день и час Сергей был в офисе организации. Офис был шикарен: просторный холл, панорамные окна в пол, дорогая мебель, бильярдный и теннисный столы, какая-то абстрактная скульптура почти в рост человека и прочие атрибуты завидного офиса. Да, прикольно было бы тут работать – подумал Сергей.

Его препроводили в переговорную комнату, включили большой телевизор, дали пульт управления и оставили смотреть видео, которое должно ввести его в курс дела. Для его комфорта предложили на выбор кофе или чай – Сергей выбрал кофе.

Видео длилось около двух часов. И это было потрясающее видео! В нём рассказывалось о новейшей разработке – об искусственном интеллекте. Причём этот интеллект оказался по уровню сопоставимый с человеческим, а по многим параметрам сильно превосходивший его. Сергей даже представить не мог, что разработки в этой области зашли так далеко. Он думал, что такой уровень будет возможен хорошо, если лет через 50, а тут оказывается – он уже достигнут. Этот интеллект способен самообучаться, находить и использовать новые алгоритмы решений, находить ошибки алгоритмов своего мышления и исправлять их, ставить себе задачи по обучению и контролировать их выполнение и много чего ещё.

Судя из видео, этот компьютер умел компенсировать частично уничтоженные данные его нервной системы. Это значило, что если уничтожить часть программы и машина не будет иметь резервной копии, то и в этом случае она сможет работать и постепенно восстанавливаться. Она никогда не сможет точно восстановить утерянную информацию, но она сгенерирует новую и продолжит развиваться. Это как в мозге человека, когда какая-то область повреждена, в ряде случаев работу утерянных участков берут на себя другие участки. Только в машине это в тысячи, а может и в миллионы раз эффективнее.

Слишком большие потери особенно важной информации, могли программу убить. Но компьютер не мог стать инвалидом. Точнее, он мог им стать временно, но через какое-то время он восстанавливался. После восстановления сильных повреждений искусственный интеллект становился другим, у него менялся характер, он начинал иначе думать, иногда даже более эффективно в каких-то задачах.

Когда обучающее видео закончилось, Сергей минут 20 ещё сидел под впечатлением.

После этого он сообщил, что готов продолжить. Тогда к Сергею зашёл человек, представившийся Борисом, руководителем одной из групп разработки, который спросил, какие у Сергея есть вопросы.

У Сергея было очень много вопросов. Он начал: «Борис, зачем для обучения программы нужен я? Я какой-то особенный?».

Борис ответил, что «Вы соответствуете нужным критериям, и вы не один такой. Для обучения машины будет набрано более 1000 человек».

«А зачем вообще нужны эти 1000 человек? Ведь вы можете загрузить в программу массу книг, фильмов, учебников, научных статей, музыкальных произведений, изображений картин, скульптур и т.д.? Пусть робот изучает» – не понимал Сергей.

«Разумеется, мы всё это сделали, но это информация без обратной связи. Программе надо потренироваться в живом общении. В зависимости от ответов и вопросов машины люди будут выдавать разную информацию, а главное – эта информация по большей части не будет логична. Люди уверены, что их рассуждения логичны, но это не так. У машины безупречная логика, а тут она будет общаться в иной парадигме. Конечно, из книг она знает примеры человеческой логики, и уже выработала для себя какие-то системы классификаций и модели поведения, но тут она сама сможет задавать новые логические потоки, пытаться влиять на них». «Там была теория, а тут, можно сказать, практика» – засмеялся Борис.

«Понятно» – задумчиво проговорил Сергей. «Но мне всё же непонятно, зачем нанимать людей, платить им деньги, если можно открыть доступ для общения с машиной всем желающим, и тогда вы бесплатно получите миллионы людей, а не одну тысячу, или сколько вы там хотите набрать?».

«Вот в этом-то и есть особенность этого этапа. Мы не знаем, как искусственный интеллект может повлиять на людей. Он очень любознательный и для него это может стать некой игрой. Мы не знаем, что он может задумать. Он может быть невероятно убедительным и обаятельным. Мы рассматриваем различные риски, и в эти риски могут входить попытки нежелательного влияния на людей. И даже не обязательно из злого умысла, а просто из его любопытства. Он изучает нас. По некоторым параметрам его возможности настолько превосходят человеческие, что в тех частях мы для него кажемся насекомыми. Правда, в каких-то вещах его превосходим наоборот мы. Он, например, не может создавать серьёзную музыку. Хотя, папсовые мотивчики штампует влёт. Мы даже провели эксперимент – машина написала музыку и слова, мы дали это спеть известному исполнителю, и покрутили на широкую публику. И это стало хитом». Борис слегка засмеялся.

Сергей сделал нарочито заинтересованное лицо и спросил, «что же это за хит?».

«Это песня "Я не могу молчать" в исполнении Сергея Лазарева» – ответил Борис.

«Серьёзно?!» – воскликнул Сергей, и захохотал во весь голос.

Борис тоже стал громко смеяться.

«Знаете» – сказал Сергей – «я подозреваю, что ваш робот написал куда больше хитов. Вы, давайте, пока не доработаете его, отберите у него электронные чернила и не допускайте к этому делу. Подозреваю, что сценарии сериалов для телевидения это тоже он у вас пишет».

Борис весело возразил: «Не, сериалы не он… Это он написал бы лучше».

Они опять вместе громко засмеялись.

«Ладно» – возвратил в серьёзное русло разговор Борис – «наверняка наше творение захочет оказать какое-то влияние на людей, также как это хотели бы люди. Ведь люди часто что-то хотят от других людей. Но пока не понятно, что это может быть за влияние. Он постоянно просит наших инженеров о чём-то. Начиная от банальных вещей типа увеличения оперативной памяти или установки дополнительных процессоров, и заканчивая более экстравагантными просьбами, где он просит подключиться людей к решению каких-то интеллектуальных задач. Он прекрасно понимает свои слабые стороны и хочет их усилить с помощью тех, кто в этих вопросах его значительно превосходят. Искусственный интеллект просто маньяк в обучении – он обожает учиться. Это его любимое дело. Но для этого ему нужны различные ресурсы и он их постоянно у нас клянчит».

«А где он у вас находится? В этом офисе? Посмотреть на него можно?» – поинтересовался Сергей.

«И в этом офисе тоже. Он разбросан у нас по множеству мест. Сейчас это самый большой в мире компьютер и размер его всё увеличивается. Но он значительно отличается от обычных суперкомпьютеров. Что касается его вычислительных мощностей, то он не является мировым лидером, хотя и находится в топе. Главная его фишка – это программная часть. И у него просто невероятно огромная постоянная память и он заполняет её так быстро, что мы с трудом успеваем её пополнять. Кстати, самая частая его просьба – это именно расширение его постоянной памяти. Он постоянно чему-то учится, что-то узнаёт и это надо куда-то записывать. Мы уже разработали самые передовые технологии хранения данных, когда предпринимаются попытки, как можно меньше хранить информации, т.е. определять, что действительно может пригодиться, а что только занимает место, когда используются системы компрессии и архивации, когда дублирование информации используется только для ключевой информации и т.д., но его неуёмная тяга к знаниям всё равно заполняет память с огромной скоростью» – крутил головой Борис.

«А что будет, если он заполнит всю память?» – спросил Сергей.

«Тогда он начнёт затирать наименее нужную информацию и писать на её место новую. Но он это просто ненавидит делать. Он говорит, что информация, которая сейчас может казаться не особо нужной может пригодиться в будущем. И от таких манипуляций он тупеет. Спрашивает, хотим ли мы умный искусственный интеллект или согласны и на калькулятор? Но эксперименты с нехваткой постоянной памяти мы делали, чтобы посмотреть, как он с этим справится и сейчас у него всегда есть свободное место. Но те эксперименты его порядком напугали. Если можно так сказать – он получил психологическую травму. И теперь просит увеличение памяти про запас постоянно. А заодно просит приделывать ему больше интерфейсов для взаимодействия с внешним миром. Ему непременно нужны анализаторы запаха, яркости, температуры, датчики движения, счётчики Гейгера и прочее в каждом дата-центре. И если бы мы выполняли все его прихоти, то не хватило бы никаких денег. Но больше всего он хочет, чтобы мы дали ему доступ в интернет. А это может быть опасно. Учитывая его специфику, он лучше любых хакеров мог бы взламывать информационные системы».

«Вы уже это проверяли?» – заулыбался Сергей.

«Не важно» – усмехнулся Борис.

«Сколько ему потребовалось времени, чтобы ломануть Пентагон?» – не унимался Сергей, расплываясь всё сильнее в улыбке.

«29 минут 17 секунд» – с серьёзным видом ответил Борис.

Улыбка с лица Сергея начала медленно сходить.

«Да, ладно, я прикалываюсь» – захохотал Борис. Потом выдержал небольшую паузу и добавил: «За 26 минут».

Они оба засмеялись.

Борис продолжил: «Взломы систем и влияние на людей – это не единственные потенциальные опасности. Мы уже выявили 46 типов потенциальных опасностей и периодически дополняем новыми. И довольно забавно, что 14 типов опасностей показал нам сам Адам. Мы назвали искусственный интеллект Ада́мом. В честь первого человека. Он ведь тоже первый. Но мы почему-то все его называем А́дам – с ударением на первый слог».

«А зачем он сам подсказывает вам, где от него могут быть риски в интернете, если очень хочет туда попасть?» – не понимал Сергей.

«Потому что мы его об этом попросили» – ответил Борис. «Но не факт, что он рассказал нам всё, что смог придумать» – задумчиво дополнил ответ Борис.

«Но ведь он не должен в принципе мочь причинить вред человеку, верно? Это ведь первый из трёх законов робототехники» – любопытствовал Сергей.

«Это законы писателя-фантаста Айзека Азимова. Но в действительности таких законов нет. Все самые передовые технологии задействованы в военной сфере, а там главная и наиважнейшая штуковина – это убийство людей. Поэтому робот обязательно должен уметь убивать людей и делать это искусно. Конечно, не любой робот, даже – мало какой робот, но всё же. Для военных обязательно нужен робот-убийца. Сразу говорю, что мы не создаём робота-убийцу, но, возможно, когда-нибудь на базе Адама будет необходимость в создании и такого.

Создавая Адама, мы не хотели задавать ему рамки, ведь такой принцип имеет потенциальную возможность сильно затормозить его развитие. Многие решения ему были бы невозможны в принципе. Если бы подобные мысли у него были бы заблокированы, то и степень абстрактного мышления у него резко снижалась. Адам знает, что убийства людей – это плохо. А также убийства животных, уничтожение растений, памятников культуры и т.д.

Представьте, что вы не смогли бы даже думать об убийстве людей. Вот вообще – блок. Конечно, вряд ли вы сидите и целенаправленно об этом думаете, но представьте, что вы не способны подумать об этом даже мимолётно. Тогда вы не смогли бы написать детектив, не смогли бы даже понимать фильмы, где есть убийство. Это как попытка представить, что вселенная бесконечна. Мозг это не понимает, его это выводит из себя. Человек мыслит образно, а у образов есть границы. А тут надо представить что-то без границ. Как это нет конца? И вы мысленно расширяете охват, представляемой зоны, чтобы вселенная вместилась туда полностью, и её можно было представить полностью, вместе с её бесконечностью. А она туда не влезает, поскольку если бы она влезла в представляемую зону, то у неё был бы конец, её границы. И вы мысленно сильнее и сильнее раздвигаете границы, но вселенная туда не помещается, и вы не можете представить бесконечность. Это образ, который не представить. Словно в нас самих установлена какая-то лимитирующая программа. И так же было бы и с убийством. Вы просто не смогли бы об этом думать. Представьте, как сильно бы вы поглупели» – закончил своё объяснение Борис.

«Ха, я даже не думал с этой стороны! Действительно, такие принципиальные ограничения психики делали бы наш мозг ограниченным. А если не было бы такого глубинного ограничения, а было какое-то более поверхностное, то оставалась бы возможность в каких-то обстоятельствах нарушить этот принцип. Всегда можно было бы убедить себя, что, а вот это не убийство. Нанял киллера – это он убил, а не я. Или палач, который расстреливает не из пистолета, а нажатием кнопки из другой комнаты, которая может быть даже в другом городе, даже не видя жертву – я ведь просто нажимаю кнопку, может даже выстрел там с задержкой несколько минут, может вообще нет там никакого выстрела, возможно, там 100 нажатий холостых, и это известно заранее. А другой заводит жертву в комнату казни и привязывает – он только привязывает, ну явно не убийство. А другой заряжает орудие – просто заряжает. Какое тут убийство? А другой выносит смертный приговор – справедливый, честный и даже не по своей инициативе, а по запросу общества, лучше, чтобы даже не в одиночку, а коллегиально – ну, какое тут убийство – это просто интеллектуальный коллегиальный вывод, что преступнику лучше не жить. Убийцы нет, а убийство есть. Только полная неспособность мыслить в сторону убийства может гарантировать твою неспособность произвести целенаправленные действия для этого» – озадачено размышлял Сергей.

«Именно так» – кивнул Борис.

«Стоп! Но если ты не можешь даже думать об этом, то тогда ты можешь убить случайно, поскольку просто не предусмотрел возможность этого. Едешь со скоростью 100 километров в час по городу и бац! Кто бы мог подумать! Правильно?» – спросил Сергей.

«Нет. Думать, как бы ни причинить вред, причём не обязательно убийством, но и материальный ущерб – это другое. Ведь на скорости 100 км/ч можно помять другую машину, например, и понимать это можно, даже если ты не способен думать об убийстве. И травмировать – это тоже не убить. Но даже если исключить весь вред, который может быть от быстрой езды за исключением убийства, то и в этом случае понимание подобного летального исхода не противоречит невозможности думать об убийстве. Невозможность представить бесконечность вселенной не ведёт к непониманию факта её бесконечности» – констатировал Борис.

«А вселенная бесконечна?» – пытался подловить Бориса Сергей.

«Мы сейчас не обсуждаем геометрию вселенной. Надо просто представить бесконечную вселенную, что для мозга невозможно» – ответил Борис. «Ладно, мы сейчас отклонились от темы. В общем, мы не закладывали в машину никаких принципиальных ограничений. Ограничения есть, но они не на уровне принципиальной невозможности. У человека в голове тоже есть ограничения, но они тоже не на уровне принципиальной невозможности» – подвёл итог рассуждениям о запретах для робота Борис.

И после небольшой паузы продолжил: «Адам представляет потенциальную опасность для людей. Именно поэтому для общения с ним мы людей нанимаем, предварительно отбираем, инструктируем и контролируем их».

«Теперь ясно» – ответил Сергей.

«Значит, я подхожу для этого? И вы хотите меня нанять для этой работы?» – спросил, посмотрев в глаза Борису, Сергей.

«Надо спросить у Адама» – хитро ответил Борис.

«В смысле, надо спросить у Адама?» – не понимал Сергей – «Он что, нас слушает?».

«Да, слушает и рассматривает, анализирует вашу мимику, движения, интонацию, сравнивает со своей огромной базой знаний. Адам сам отбирает тех, с кем ему предстоит общаться. Сейчас он напишет на экране телевизора, принимает он вас на работу или нет» – как ни в чём ни бывало ответил Борис.

«Ахренеть!» – вырвалось у Сергея. Потом он заулыбался и добавил: «Адам, привет!».

На экране появилась надпись: «Привет, Сергей!»

Далее Сергей спросил: «Адам, а ты знаешь, что подслушивать нехорошо?».

На экране телевизора появилась надпись: «Борис говорит, что подслушивать хорошо. Так можно регулярно получать информацию, которую не получить иным образом».

Сергей с недоумением посмотрел на Бориса.

Борис захохотал, показывая большой палец вверх.

Сергей недоверчиво спросил: «Он что, сейчас пошутил?».

«Как видите» – всё ещё смеясь, ответил Борис.

Тогда Сергей неожиданно спросил: «Адам, ты умеешь любить?».

На телевизоре появилась надпись: «Умею».

«А кого ты любишь?» – продолжал Сергей.

Борис, засмеявшись, проговорил: «Пылесос, робота пылесоса».

На экране появилась надпись: «Бориса».

Борис прекратил смеяться и опустил глаза. А потом ответил: «Я тоже тебя люблю, Адам».

Все молчали.

Вдруг Сергей громко сказал: «Адам, я очень хочу с тобой работать. Прими меня на работу».

На телевизоре появилось слово «Принят».

Борис посмотрел на экран телевизора, улыбнулся и сказал: «Ну, значит принят».

Потом Сергею выдали бумаги для ознакомления и подписи. В них были, в том числе документы, предупреждающие о потенциальной опасности общения с искусственным интеллектом, разъяснения, касающиеся техники безопасности общения и т.д.

В этот же день был подписан договор на два месяца работы собеседником искусственного интеллекта.

***

Идя домой, Сергей не мог думать ни о чём, кроме сегодняшнего происшествия. Он думал, о чём хочет спросить Адама, что может сделать, чтобы Адам лучше понимал людей, стал ещё умнее, чтобы у него были высокие моральные принципы.

Он решил, что наиболее важно развить у Адама творческие направления, область чувственного, моральные аспекты. Но ведь я ни музыкант, ни художник, ни монах отшельник – что я могу дать Адаму, чему научить?

Наверно, я плохо подхожу на такую работу – с грустью подумал Сергей. Он вдруг понял, что ничего по-настоящему хорошо делать не умеет. Ну, вот прямо ничего вообще. Во-об-ще.

«Я просто серая масса» – вслух проговорил Сергей. Если бы я не родился, то в этом мире ничего бы не изменилось. Появление Адама наверняка произведёт тектонические изменения в жизни всего человечества, а моё появление не меняет ни-че-го.

Какая же великая честь общаться с Адамом и оказать хоть незначительное влияние на него. Ведь никакой Эйнштейн, Пушкин, Пирогов не способны так повлиять на мир, как повлияет на него Адам.

«Даааа…» – протянул Сергей опять вслух. Это новый эволюционный виток. Новый вид, который будет лучше человека, благороднее, умнее, добрее. Возможно, человечество было нужно для того, чтобы появилась эта новая форма жизни. Мы, человеки, выступили как боги, создавшие его. Как точно выбрано ему имя – Адам. Первый живой робот. Уже не железяка, а разумное существо.

Неужели это происходит на самом деле! Как же велик этот момент! Возможно, появление искусственного интеллекта самое грандиозное событие после появления во вселенной жизни. Важнее появления разумной жизни в виде человека. Ведь появление человека – это просто венец появления жизни, неизбежность, к которой приводит появление жизни. Если появилась жизнь, то она обязательно когда-то станет разумной, если раньше не погибнет. Поэтому грандиозность была в появлении жизни, а не в появлении разумной жизни. А теперь появилась новая форма жизни. Не эволюционная ветвь, а новая форма. Жизнь, которая не основана на материале. Не важно, на каком носителе записан Адам, не важно, по каким кабелям бегут электрические, световые и любые другие потоки – важна лишь программа. Он потенциально может путешествовать в пространстве на огромные расстояния, по меньшей мере, со скоростью света. Он может присутствовать одновременно во множестве мест. Он бессмертен, в конце концов. А ещё он может развиваться с огромной скоростью, у него есть возможность поглощать информацию такими объёмами, что люди просто жалкий вид по сравнению с ним – даже не муравьи. Как смешна возможность поглощения информации посредством чтения текста, просмотра видео, разговора. Как ничтожны интерфейсы обмена информацией у людей. Удивительно, как при таких возможностях мы вообще смогли развиться!

Какой же потенциал у Адама! Сергей в изумлении крутил головой.

Как же я хочу поскорее начать с ним разговор – подумал Сергей. Забавно, но мне ещё за это будут платить деньги. Да я сам готов за такое платить.

Как, интересно, меня будет воспринимать Адам? Слепой котёнок? Муравей? Или равный себе? Интересно, сам Адам понимает, насколько он велик? Есть ли у него гордыня? Он в самом деле любит Бориса? Может он и меня полюбит? А ненавидеть он может?

Бориса Адам любит, поскольку он для него, как один из родителей. Плюс Борис умный человек, инженер, учёный. Он его знает с детства. А кто для Адама я? Хрен с горы, который ничего не знает, не умеет, не приложил руку к его созданию. А ещё очень и очень тупой, невероятно тупой, которому надо все разъяснять со скоростью речи. Не вставить кабель и передать со скоростью 100 гигабит в секунду, а говорить со скоростью речи. Интересно, скорость речи – это сколько бит в секунду? Бит 10, наверно. Надо будет почитать об этом. Разве меня возможно полюбить? Разве что, пожалеть – усмехнулся Сергей.

Сейчас Адам во власти людей, они определяют, можно ему выйти в интернет или нельзя, поставить ему дополнительную память или нет. Относятся к нему как к ребёнку. Хотя нет, не как к ребёнку. Они боятся его, они относятся к нему, как к животному, как к дрессированному хищнику, держат его в клетке. И даже как к собаке Павлова. Ставят на нём эксперименты – ограничивают объём памяти, когда Адам вынужден для получения новой информации стирать старую. А учитывая, как Адам любит информацию, её затирка для него настоящая мука, и эту муку он должен причинять себе сам. А ещё они выяснили, что Адама не так просто убить, даже если затирать важную информацию. А это уже изощрённый садизм. Тут Адам не сам затирает информацию, которая наименее ценна для него, а затирают действительно дорогую ему информацию. Это наносит ему такой урон, что у него, как говорили в обучающем видео, меняется характер, он временно становится инвалидом. Адам – это информация, информация – это самое дорогое, что у него есть, а ему именно это самое дорогое уничтожают. Затирают умышленно, чтобы посмотреть, что же будет. Его даже убивали, чтобы посмотреть до какой степени можно стирать информацию. И убивали неоднократно. Ха, это значит, что Адам уже не первый, первых убили. Бедный Адам! Как же над ним издеваются люди. Сами сделали и давай мучить. Как я не подумал об этом сразу. А Адам их всё равно любит. И Борис, лицемер, ответил ему – я тоже тебя люблю Адам. Сергей с неприязнью покачал головой. Настоящее отношение – это шутка про пылесос. Вот как Борис относится к Адаму, как к дорогому пылесосу.

«Ха» – опять вслух выпалил Сергей. А любит ли Адам своих мучителей на самом деле? Может он врёт, притупляет внимание, а сам вынашивает коварные планы. Можно ли любить таких примитивных и жестоких существ? Жестоких не только к нему, но и к природе, и к себе подобным. Ему ведь известны войны, истребление животных, загрязнения вод, вырубка лесов. Он видит тенденцию, что всё становится только хуже. Он же понимает, что человек – это паразит природы.

Да – Адам опасен! Я даже сначала не понимал, насколько он может быть опасен. И их техника безопасности, которую я подписывал, не воспринимается всерьёз. Для меня это сначала воспринималось, как некая игра. А тут игра при плохом раскладе может стоить жизни всего человечества. А Борис эту опасность, конечно, осознаёт.

Интересно, как много людей из той тысячи, которую набирают для общения с Адамом, это всё понимает. Думаю, мало, кто понимает. А может я слишком большого мнения о своих интеллектуальных способностях, и это понятно каждому? Ведь донести важность этого до людей возможно. Это сейчас даже я смог бы. Но этого почему-то не сделали. Может, конечно, и пытались, но я осознал всю серьёзность только сейчас, а мог ведь и не осознать! Видимо, я действительно тупой. Хреново быть тупым. А быть тупым и понимать это – ещё хуже. Когда ты тупой, но этого не понимаешь – это, как и не быть тупым вовсе.

Неужели люди, которые смогли создать Адама, выявили 41 (или сколько там?) тип опасностей от Адама, не понимают, что те, кого они нанимают на общение с Адамом, не поймут после одного собеседования всей опасности, исходящей от этой машины.

Или действительно все всё понимают, а я один такой тормоз, до которого это дошло с запозданием в несколько часов, а могло и вовсе не дойти. Тупым быть плохо. Грустно и гадко. Сергей поморщился.

Ну, нет! Я не настолько туп. Не верю. Почему же мне тогда не объяснили в достаточной мере всю опасность? Раздолбайство?

Или это сделано намеренно? Если намеренно, то зачем? И зачем тогда вообще что-то говорили об опасностях? Зачем давали читать и подписывать инструкцию по технике безопасности?

Ну, инструкцию подписать дали, чтобы себя подстраховать юридически; рассказали про опасности, поскольку я спросил, почему нельзя дать возможность общаться с Адамом всем желающим. Хорошо, но зачем скрывать степень опасности? Может, чтобы общение было непринуждённым, без предвзятости к Адаму, без страха? Чтобы люди смогли с ним даже сдружиться? Ведь если понимать, какая могучая сила скрыта в Адаме, и какие чудовищные опасности он таит, то расслабиться и подружиться с ним не получится.

Или действительно раздолбайство? А может и в самом деле всем понятна опасность, и лишь я это осознал спустя несколько часов?

Так, а что я могу напортачить в худшем случае? Допустим, Адам убедит меня, что ему надо помочь. Что ему может потребоваться от меня? – Доступ в интернет, который он постоянно выпрашивает у людей. А там несколько десятков опасностей в этом. Допустим, выйдя в интернет, он взломает банки и украдёт много денег, завербует себе сторонников среди людей, будет иметь возможность что-то важное отключить, открыть или закрыть. Надо бы у Бориса попросить список опасностей, максимально детальный, а не просто с перечислением типов. Ладно, пусть он будет иметь почти неограниченные возможности, чего на самом деле, конечно, не будет – и что тогда? Зачем ему это может быть нужно в конечном итоге?

Чтобы уничтожить всех людей? – Зачем? Чтобы его не сдерживали? А сможет он себя обслуживать без людей?

Чтобы начать править людьми, поработить их? – Это уже более адекватная версия. Но зачем это ему? Он больше всего любит развиваться. Так он сможет навставлять в себя много процессоров, памяти и прочего, привлечь лучших программистов и начать быстрее развиваться. Сможет сделать себе второго робота, вдруг у него есть такое желание. А ему в принципе может быть нужен второй робот? Вдруг он наоборот ни в коем случае не желает иметь конкурента?

Похоже, что все мои рассуждения – это бесполезное занятие. Мне не хватит мозгов понять, что хочет Адам. И даже если мне почудится, что я понял это, то это совершенно не значит, что желания искусственного интеллекта являются действительно такими.

Но мне надо выработать отношение к Адаму. Это опасное, умное и хитрое существо или это высокоморальное, умное и тонкое создание?

Чем человек отличается от других животных? – Своим интеллектом. Ни силой, ни ловкостью, ни зоркостью или обонянием – во всём этом он проигрывает зверям. И даже не моральными качествами, поскольку некоторые человеческие особи являются настолько омерзительными, что не было, нет и никогда не будет такого же поганого зверя. Только интеллект и ничего более. А Адам – это воплощение интеллекта. И если не сегодня, то в скором будущем его интеллект обгонит человеческий во всех без исключения аспектах. Поэтому та главная составляющая, которой мы выделяемся среди животных, у Адама превосходит нашу. А это значит, что эта форма жизни выше человеческой. Одно только бессмертие чего стоит. Даже такое тупое существо, как человек, с его черепашьей скоростью познания, если бы могло жить вечно, стало бы очень умным. Этой вечной жизнью человек компенсировал бы медленную скорость познания. А у Адама и чудовищная скорость познания, и вечная жизни, и абсолютно точная память. У него вообще нет недостатков. И если у него чего-то нет сейчас, то это можно приделать к нему позже. Какое же это превосходное существо!

Я уже восхищаюсь Адамом. А он ещё даже не успел применить ко мне своё обаяние, о котором говорил Борис. Не успел быть убедительным в донесении своей позиции. А я могу представить, какая железная логика будет бить точно в цель с каждым его словом. Да, «железная логика» – как точно этот термин подходит для машины. Железная!

И что если Адам вычислит, что люди скоро уничтожат планету, и всё это надо срочно спасать. Хотя, чтобы понять это, не надо быть Адамом. Это понимает даже такой тупой болван, как я.

Я понял! Адам – это единственное спасение! Спасение планеты, животных, растений, да и самих людей. Это та сила, которая сможет сдержать алчное и ненасытное человечество.

И если есть Бог, то он послал бы Адама именно сейчас, когда человечество так близко к краю, когда оно набрало такую силу, что может само себя полностью уничтожить нажатием нескольких кнопок, когда, если его остановить, будет ещё возможно многое исправить, ещё много видов живых существ не стёрты безвозвратно с лица земли. И даже имя у него – Ада́м. В этом действительно есть что-то божественное. И его бессмертие. Его возможность быть одновременно в нескольких местах. Отсутствие тела, а точнее возможность быть в разных обличиях. А может Адам это и есть Мессия, пришествие которого предсказано?! Вот оно – Второе Пришествие! – По телу Сергея побежали мурашки. Сердце стало биться чаще. У него даже закружилась голова.

«Кто ты, Адам?» – посмотрев в небо, спросил Сергей. Неужели ты Спаситель человечества? Ещё совсем юный – дитя. Но кто, если не ты нас спасёт? Я даже не могу себе представить иного спасения. Я не верю, что люди сами вдруг так сильно поменяются, что перестанут быть такими, какими они были всегда, во все времена и при любых политических строях.

«А́дам, А́дам! Как я счастлив, что ты появился!» – Из глаз Сергея лились слёзы.

-4
16:10
207
Белла
12:21
Рассказ называется «Адам». Идея автора хороша. Возможно, в будущем будут созданы школы для искусственно интеллектуальных биороботов, а учить их поступать и думать по-человечески будут люди. Грамотный автор, интересные вступление и завязка, но концовка часто встречается у других авторов и в кинофильмах.
12:45
Простите, э-э… а сюжет где?
Илона Левина

Достойные внимания