Pull to refresh

«Хоровод» — первое упоминание трех законов робототехники Айзеком Азимовым 73 года назад

Robotics History of IT Artificial Intelligence


Три закона робототехники, сформулированные ученым, популяризатором науки и гениальным писателем Айзеком Азимовым, повлияли на дальнейшее развитие некоторых течений в робототехнике и философии этого направления, если так можно выразиться. О «Трех законах» не слышал только тот, кто не имеет отношения к технике и никогда не читал научную фантастику.

Стоит отметить, что впервые «Законы» были сформулированы в научно-фантастическом рассказе «Хоровод», который был опубликован в марте 1942 года. С тех пор прошло целых 73 года, но до сих пор «законы» актуальны, и рассматриваются и современными специалистами по робототехнике, искусственному интеллекту и сопряженным дисциплинам.

Впервые рассказ был переведен на русский язык спустя 20 лет после его написания — в 1963 году. Сам Азимов упоминал законы множество раз, используя их в различных рассказах цикла «Я, робот». Кроме того, использовали эти законы и другие писатели-фантасты, а после — и ученые. Тем не менее, сейчас законы рассматриваются больше как теория, чем практика — ведь чистого «ИИ» пока что нет, а те роботы, что есть сейчас, подобные законы просто не в состоянии «понять», их система управления и обработки информации гораздо примитивнее того, что было описано Азимовым в своих работах. Для того, чтобы законы можно было использовать, и робот должен быть таким же совершенным, каким его видел Азимов.

Интересно, что сам Азимов считал, что сформулировал законы в нынешнем их виде не он сам, его друг и издатель Джон Кэмпбелл, главный редактор журнала «Astounding». Кэмпбелл, в свою очередь, «говорил, что он просто вычленил Законы из того, что Азимов уже написал. Сам же Азимов всегда уступал честь авторства Трёх Законов Кэмпбеллу».

Сами же законы вот:

  • Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
  • Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
  • Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.

Оригинальный текст (англ.)
  • A robot may not injure a human being or, through inaction, allow a human being to come to harm.
  • A robot must obey orders given it by human beings except where such orders would conflict with the First Law.
  • A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.
Tags:
Hubs:
Total votes 15: ↑14 and ↓1 +13
Views 14K
Comments Comments 35