1) Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2) Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3) Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.
азимов после создания этих законов, пол жизни думал как их обойти, а ведь для робота еще и необходимо эти законы создать ;) не так то просто определить некоторые вещи которые для нас то являются не всегда однозначными
Что такое?:
-Человек
-Вред
Та глупости это всё, хватит демонизировать ИИ, и читать бесполезных фантастов, займитесь-ка лучше сами его разработкой, и ваяйте такие двери какие хотите!
ну скажем, по сути, это не «с простого» это как раз самое неопределенное слово в законах ;) остальные формализовать (к моменту когда понядобятся законы) вроде не сложно… :)
Гораздо легче слова «вред» бездействие — это вообще простое для формализации слово — это обратное слову действию, то есть, робот не может не вмешиваться если причиняется вред.
Человек сложнее, но опять же куча формальных признаков, а вот слово «вред» самое сложное.
собственно, об этом я выше написал ;) но серьезно, самая заковырка именно в слове «вред», далеко не всегда человек может определить принесет он «вред» своим действием/бездействием или нет, запрограммировать это роботу еще сложнее…
кстати, кто помнит ещё незнайку на луне? гостиница «экономическая» – там ведь тоже такая фишка была, насчёт забросьте 5 этих, по моему, сантимов? или путаю что–то
Вы точно хотите изобрести искуственный интеллект?