Comments 54
В 1999 году американцы слегка ошиблись высокоточной бомбой и разнесли к чертям китайское посольство
В 2009 году американцы слегка ошиблись и разнесли к чертям несколько домов в афганском селе, в результате чего, 120 (если не ошибаюсь) людей отправились к Аллаху раньше времени.
Если американцы не снизят процент «ошибок», то грош цена таким кодексам и правилам…
В 2009 году американцы слегка ошиблись и разнесли к чертям несколько домов в афганском селе, в результате чего, 120 (если не ошибаюсь) людей отправились к Аллаху раньше времени.
Если американцы не снизят процент «ошибок», то грош цена таким кодексам и правилам…
0
Если бы это был американский боевой робот, он бы не ошибся. Китайцам бы полил газоны, чтобы сохранить культурное наследие азиатов, а афганцам сбросил бы мешок денег, чтобы они мак не выращивали.
+2
ой да эти хоть куда-то рядом целились, вспомните о происшествии 2001 года над крымом, там ещё веселей было
-1
В итоге дойдет до того, что роботы поймут бессмысленность войны и начнут дезертировать.
+8
снятся ли андроидам электрические овцы?
+9
UFO just landed and posted this here
помоему у Айзека, как раз общество заставило корпорацию написать правила для роботов, чтобы люди не боялись их применять в быту, а про военную сферу в своих книгах он никогда не упоминал.
жаль что у нас полноценное использование роботов начнется с военной сферы
жаль что у нас полноценное использование роботов начнется с военной сферы
0
Айзек Азимов предполагал, что в будущем войн не будет (иначе человечество просто не выживет) и поэтому боевые роботы не нужны.
0
любые новые технологии сначало применяются в ВПК, а потом, может быть, где-то в другом месте. все развитие человечество идет только ради получения большей дубины чем у соседа.
+1
чтобы выполнить первый закон нужен нехилый ИИ
0
>>Как видим, Азимов и представить не мог, что боевые роботы получат такое распространение в будущем.
Азимов может и догадывался об этом, просто три его закона — для небоевых роботов…
Азимов может и догадывался об этом, просто три его закона — для небоевых роботов…
+5
Его законы исключают такое понятие, как «боевые роботы».
+5
Позитронный мозг изначально был создан на трёх законах, как на трёх китах, робот попросту не может их нарушить, а в мире Азимова роботов делали только на позитронных мозгах, поэтому боевых роботов как раз быть и не могло.
+2
были, в каком то из его рассказов, были роботы в которые не подчинялись человеку и могли убивать, правда их «типа сделали по ошибке» и U.S. Robotix (помоему так) их леквидировало со временем. попробую найтить рассказ.
0
У Азимова есть много рассказов про роботов со сдвинутыми законами, так в I,Robot есть рассказ про роботов, у которых был ослаблен первый закон, и они теоретически могли убивать (потерявшийся робот). Еще есть книжка про робота без законов, который основан не на позитронном мозге, а на чем-то другом, его подозревали в убийстве, а он сбежал и не помнил что происходило. Как раз у Азимова очень проработана роботопсихология и этика по отношению к роботам.
Да, рассказ было бы интересно почитать, я не слышал. Компания U.S. Robotics, кстати существует в реальности, раньше делала модемы, у меня такой один остался. :)
Да, рассказ было бы интересно почитать, я не слышал. Компания U.S. Robotics, кстати существует в реальности, раньше делала модемы, у меня такой один остался. :)
+1
Я понимаю, что слово позитронный здесь должно иметь другой смысл, но получается как у Задорнова, робот с позитивными мозгами :)
0
У Айзимова в этой серии рассказов вообще рассматривается довольно много различных отклонений, выводов и следствий из этих законов. А также у него есть упоминания и про нулевой закон робототехники…
0
Я про нулевой закон слышал, но как-то не читал книг, где он упоминается.
Все выводы о робоэтике он делал годами и десятилетиями, поэтому на них ориентироватся можно и нужно учёным.
Все выводы о робоэтике он делал годами и десятилетиями, поэтому на них ориентироватся можно и нужно учёным.
0
В 1986 году в заключительном романе из серии «Основание» Азимов предложил Нулевой Закон:
0. Робот не может нанести вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред.http://ru.wikipedia.org/wiki/Три_закона_роботехники
0
«Роботы и империя» и «Академия и земля», в них говориться об этом законе. В роботы и империя даже есть такая глава.
0
Это про серию роботов Нестор в «Как потерялся робот», со специально обрезанным первым законом: «Робот не может причинить вреда человеку.»
0
Их сделали не по ошибке, их сделали в исследовательских целях для испытания гипердрайва.
Кстати, сюжет этого рассказа частично перенесли в фильм.
p.s. Но этот рассказ, конечно же, подтверждает, что в случае нужды боевых роботов наклепать могли только так.
Кстати, сюжет этого рассказа частично перенесли в фильм.
p.s. Но этот рассказ, конечно же, подтверждает, что в случае нужды боевых роботов наклепать могли только так.
0
Не то что бы совсем исключают.
Есть рассказ, в котором роботы на одной космической станции решили, что люди это — просто устаревшие модели роботов, заперли людей в трюме и стали ждать пока прилетят более совершенные модели. На основе такой ошибки вполне можно сделать боевого робота — он будет всего лишь утилизировать людей с отклонением в программе.
Вообще законы Азимова очень глубоко проработаны.
P.S. и еще… законы робототехники не для роботов… они для людей.
Есть рассказ, в котором роботы на одной космической станции решили, что люди это — просто устаревшие модели роботов, заперли людей в трюме и стали ждать пока прилетят более совершенные модели. На основе такой ошибки вполне можно сделать боевого робота — он будет всего лишь утилизировать людей с отклонением в программе.
Вообще законы Азимова очень глубоко проработаны.
P.S. и еще… законы робототехники не для роботов… они для людей.
+1
Законы робототехники это квазистенция правильного, честного человека, которых очень мало.
0
Хм… про правильных человеков то же есть рассказ — об одном депутате, который был настолько честный и правильный, что его обвинили в том, что он робот и не имеет права занимать руководящих позицый — ну очевидно да, робот не должен управлять людьми.
Тут очень больной вопрос и отбрасывать труды Азимова —идиотизм очень неправильно.
Тут очень больной вопрос и отбрасывать труды Азимова —
+1
Надо сказать, что в любом случае к законам прийдут. Эпоха роботов-пылесосов пройдет, появятся более дешевые и более продвинутые механизмы. Будет стандартизация. Будет стандартизация технологий, и в результате все компании и ученые прийдут к мысли, что нужны законы. Вот только как всегда это произойдет тогда, когда уже будет куча роботов вместо того, чтобы принимать мысли не менее умных людей, писателей и футуристов.
0
Было-бы здорово почитать перевод на русский, а то немного тяжело читать :)
+1
Скоро там новый Терминатор выходит? Весело — выходит такая бронированная штука из-под контроля, удаленное управление отказывает — и погнали…
0
Очень много проишествий в мульфильмах, фильмах и т.п. основано на первом законе Айзимова — нельзя убивать людей. Получается, в будущем они станут совершенно непонятными. :)
0
как представлю бот-нет на боевых роботах аж страшно становиться,
+2
Даа-а… то же представил себе боевого робота раздающего спам на улице))
+1
ага, а вы представьте как они на форумах флудить быстро станут )))
зы а вообще Frostmourne прав, это НЕРЕАЛЬНО стремно, ведь в будущем боевых роботов собираются включать в стаи, где коллективны разум решает, что делать. А если один или несколько роботов будут перехвачены, можно будет влиять на решения всей стаи, а в стаю можно любую технику включить, вплоть до аппаратов с ядреными ракетами
зы а вообще Frostmourne прав, это НЕРЕАЛЬНО стремно, ведь в будущем боевых роботов собираются включать в стаи, где коллективны разум решает, что делать. А если один или несколько роботов будут перехвачены, можно будет влиять на решения всей стаи, а в стаю можно любую технику включить, вплоть до аппаратов с ядреными ракетами
0
Мне кажется, что боевые роботы сами по себе жесть… Вот если бы они дома строили, газоны выращивали, в общем занимались бы общественно полезным делом, еще было бы классно.
А воевать дело не роботов и никаким кодексом тут не спасешься :(
А воевать дело не роботов и никаким кодексом тут не спасешься :(
+1
Спасибо за то что теперь боевой робот меня будет убивать гуманнм способом
+3
слава Императору, слава роботам, смерть человекам!
ха-ха-ха.
ха-ха-ха.
+13
Можно фильм снимать
правильные роботы Азимова
цель которых защищать людей
против боевых роботов Империи Зла
Скоро на экранах и в жизни.
правильные роботы Азимова
цель которых защищать людей
против боевых роботов Империи Зла
Скоро на экранах и в жизни.
0
Хм. Одного меня беспокоит развитие боевой роботехники?
+4
Я давно подозревал, что англо-саксов надо стерилизовать для блага всего остального человечества. Теперь мои подозрения подтвердились и я в этом просто уверен.
-1
Скорее всего создатели роботов не будут заморачиваться законами для своих творений, робота ведь и так не просто создать.
0
Он опубликовал исходникик SkyNet`а!
0
Sign up to leave a comment.
Кодекс чести для боевых роботов