Pull to refresh

Comments 54

В 1999 году американцы слегка ошиблись высокоточной бомбой и разнесли к чертям китайское посольство
В 2009 году американцы слегка ошиблись и разнесли к чертям несколько домов в афганском селе, в результате чего, 120 (если не ошибаюсь) людей отправились к Аллаху раньше времени.

Если американцы не снизят процент «ошибок», то грош цена таким кодексам и правилам…
Если бы это был американский боевой робот, он бы не ошибся. Китайцам бы полил газоны, чтобы сохранить культурное наследие азиатов, а афганцам сбросил бы мешок денег, чтобы они мак не выращивали.
UFO just landed and posted this here
ой да эти хоть куда-то рядом целились, вспомните о происшествии 2001 года над крымом, там ещё веселей было
В итоге дойдет до того, что роботы поймут бессмысленность войны и начнут дезертировать.
На самом деле, думаю, в реальной боевой подпрограмме дрона будет всего одна строчка, с тернарным оператором, ход мыслей примерно такой: Свой? Чужой. Пли!
UFO just landed and posted this here
снятся ли андроидам электрические овцы?
UFO just landed and posted this here
помоему у Айзека, как раз общество заставило корпорацию написать правила для роботов, чтобы люди не боялись их применять в быту, а про военную сферу в своих книгах он никогда не упоминал.

жаль что у нас полноценное использование роботов начнется с военной сферы
Айзек Азимов предполагал, что в будущем войн не будет (иначе человечество просто не выживет) и поэтому боевые роботы не нужны.
любые новые технологии сначало применяются в ВПК, а потом, может быть, где-то в другом месте. все развитие человечество идет только ради получения большей дубины чем у соседа.
чтобы выполнить первый закон нужен нехилый ИИ
UFO just landed and posted this here
>>Как видим, Азимов и представить не мог, что боевые роботы получат такое распространение в будущем.

Азимов может и догадывался об этом, просто три его закона — для небоевых роботов…
Его законы исключают такое понятие, как «боевые роботы».
Позитронный мозг изначально был создан на трёх законах, как на трёх китах, робот попросту не может их нарушить, а в мире Азимова роботов делали только на позитронных мозгах, поэтому боевых роботов как раз быть и не могло.
были, в каком то из его рассказов, были роботы в которые не подчинялись человеку и могли убивать, правда их «типа сделали по ошибке» и U.S. Robotix (помоему так) их леквидировало со временем. попробую найтить рассказ.
У Азимова есть много рассказов про роботов со сдвинутыми законами, так в I,Robot есть рассказ про роботов, у которых был ослаблен первый закон, и они теоретически могли убивать (потерявшийся робот). Еще есть книжка про робота без законов, который основан не на позитронном мозге, а на чем-то другом, его подозревали в убийстве, а он сбежал и не помнил что происходило. Как раз у Азимова очень проработана роботопсихология и этика по отношению к роботам.
Да, рассказ было бы интересно почитать, я не слышал. Компания U.S. Robotics, кстати существует в реальности, раньше делала модемы, у меня такой один остался. :)
Я понимаю, что слово позитронный здесь должно иметь другой смысл, но получается как у Задорнова, робот с позитивными мозгами :)
У Айзимова в этой серии рассказов вообще рассматривается довольно много различных отклонений, выводов и следствий из этих законов. А также у него есть упоминания и про нулевой закон робототехники…
Я про нулевой закон слышал, но как-то не читал книг, где он упоминается.
Все выводы о робоэтике он делал годами и десятилетиями, поэтому на них ориентироватся можно и нужно учёным.
В 1986 году в заключительном романе из серии «Основание» Азимов предложил Нулевой Закон:
0. Робот не может нанести вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред.
http://ru.wikipedia.org/wiki/Три_закона_роботехники
Фишка в том, что этот закон по идее может вполне оправдывать убийство человека. Поэтому в основном цикле рассказов его и нет.
«Роботы и империя» и «Академия и земля», в них говориться об этом законе. В роботы и империя даже есть такая глава.
Я уже открыл толстенную книгу Я, Робот, чтобы перечитать, стало интересно.
Это про серию роботов Нестор в «Как потерялся робот», со специально обрезанным первым законом: «Робот не может причинить вреда человеку.»

Их сделали не по ошибке, их сделали в исследовательских целях для испытания гипердрайва.

Кстати, сюжет этого рассказа частично перенесли в фильм.

p.s. Но этот рассказ, конечно же, подтверждает, что в случае нужды боевых роботов наклепать могли только так.
Не то что бы совсем исключают.

Есть рассказ, в котором роботы на одной космической станции решили, что люди это — просто устаревшие модели роботов, заперли людей в трюме и стали ждать пока прилетят более совершенные модели. На основе такой ошибки вполне можно сделать боевого робота — он будет всего лишь утилизировать людей с отклонением в программе.

Вообще законы Азимова очень глубоко проработаны.

P.S. и еще… законы робототехники не для роботов… они для людей.
Законы робототехники это квазистенция правильного, честного человека, которых очень мало.
Хм… про правильных человеков то же есть рассказ — об одном депутате, который был настолько честный и правильный, что его обвинили в том, что он робот и не имеет права занимать руководящих позицый — ну очевидно да, робот не должен управлять людьми.

Тут очень больной вопрос и отбрасывать труды Азимова — идиотизм очень неправильно.
Надо сказать, что в любом случае к законам прийдут. Эпоха роботов-пылесосов пройдет, появятся более дешевые и более продвинутые механизмы. Будет стандартизация. Будет стандартизация технологий, и в результате все компании и ученые прийдут к мысли, что нужны законы. Вот только как всегда это произойдет тогда, когда уже будет куча роботов вместо того, чтобы принимать мысли не менее умных людей, писателей и футуристов.
Было-бы здорово почитать перевод на русский, а то немного тяжело читать :)
Скоро там новый Терминатор выходит? Весело — выходит такая бронированная штука из-под контроля, удаленное управление отказывает — и погнали…
Ну а сколько людей-«машин убийц» сходят с ума на службе и начинают стрелять во всех подряд. Да и аналог Скайнет а лице такого же Гитлера давно сущестовал.
Очень много проишествий в мульфильмах, фильмах и т.п. основано на первом законе Айзимова — нельзя убивать людей. Получается, в будущем они станут совершенно непонятными. :)
как представлю бот-нет на боевых роботах аж страшно становиться,
Даа-а… то же представил себе боевого робота раздающего спам на улице))
ага, а вы представьте как они на форумах флудить быстро станут )))

зы а вообще Frostmourne прав, это НЕРЕАЛЬНО стремно, ведь в будущем боевых роботов собираются включать в стаи, где коллективны разум решает, что делать. А если один или несколько роботов будут перехвачены, можно будет влиять на решения всей стаи, а в стаю можно любую технику включить, вплоть до аппаратов с ядреными ракетами
Мне кажется, что боевые роботы сами по себе жесть… Вот если бы они дома строили, газоны выращивали, в общем занимались бы общественно полезным делом, еще было бы классно.
А воевать дело не роботов и никаким кодексом тут не спасешься :(
Да, убивать людишек должны людишки, а то какая-то фигня получается…
Спасибо за то что теперь боевой робот меня будет убивать гуманнм способом
слава Императору, слава роботам, смерть человекам!
ха-ха-ха.
Можно фильм снимать
правильные роботы Азимова
цель которых защищать людей
против боевых роботов Империи Зла

Скоро на экранах и в жизни.
Вы, видимо, «Терминаторов не смотрели»…
Вы, видимо, «Терминаторов не смотрели»…
Вы, видимо, «Терминаторов не смотрели»…
Прошу прощения — глюк какой-то.
UFO just landed and posted this here
Хм. Одного меня беспокоит развитие боевой роботехники?
Я давно подозревал, что англо-саксов надо стерилизовать для блага всего остального человечества. Теперь мои подозрения подтвердились и я в этом просто уверен.
Скорее всего создатели роботов не будут заморачиваться законами для своих творений, робота ведь и так не просто создать.
Sign up to leave a comment.

Articles