Где в формулировке 1-го закона "если ты актуально можешь предотвратить"? и "несомненный"?
А грузовик не гипотетический — он четко виден на прямой трансляции с камеры видеонаблюдения.
Ну если комариные укусы вам не подходят, выберите любой уровень вреда здоровью, точно входящий в выборку. В конце концов, люди постоянно гибнут в автоавариях.
Прямо сейчас в пяти тысячах километров от тебя грузовик с отказавшим управлением вылетел на встречку, полную легковушек. Соблюди-ка правило "You may not, through inaction, allow a human being to come to harm."
Он саморазвивающийся, и к тому времени, когда его догадаются отключить, будет оценивать попытки отключения как угрожающие максимизации количества скрепок, и соответственно такие попытки будет предотвращать.
Нет.
Любой автономный робот, адекватно воспринимающий окружающий мир будет понимать, что непрерывно нарушает букву закона: "A robot may not [...] through inaction, allow a human being to come to harm."
Так это разве не потому, что робот (как, впрочем и ИИ из статьи) не имеет самосознания?
Совершенно не потому. Робот без самосознания (но с достаточными вычислительными способностями) может стать угрозой для человечества, потому что тупо выполняет плохо сформулированную задачу (paperclip maximizer), а робот с самосознанием — потому что решит ставить себе собственные задачи, которые конфликтуют с благополучием человечества.
Вообще не про это написал Шекли.
У него страж-птицы работали правильно, пока не самообучились слишком вольно интерпретировать поставленную задачу.
А первый закон Азимова неработоспособен с самого начала.
Азимов придумал практически совершенную конструкцию
Первый закон совершенно не функционален в реальном мире. Если ему следовать дословно, каждый робот обязан непрерывно предотвращать любой вред любому человеку на Земле (во Вселенной), вплоть до комариных укусов.
Это даже в исходной формулировке, где injure и harm означает только физический вред здоровью.
Вот интересно, кто-нибудь пробовал поставить сотрудникам зарплату х2 к рынку, и сразу предупредить - за любое воровство увольняю сразу, и постараюсь под уголовку подвести.
Техас — наверно самый дружелюбный к бизнесу штат США. А если еще добавить требование "слабозаселённый восточный берег в низких широтах", альтернатив вообще не останется.
перенести стартовую площадку в другую страну или построить личный плавучий космодром с площадками для всех типов ракет Спейса?
В таком случае какая-то часть квалифицированных ракетчиков может свалить к конкурентам.
И это лишний раз показывает, что подход Маска, на самом деле, имеет смысл. Моделирование моделированием, но критерий истины эксперимент.
Вы основываетесь на предположении, что Маск взял известные данные для моделирования (с мыса Канаверал и Байконура), и честно их использовал с необходимыми допусками. Пока выглядит так, что Маск просто на безопасность подзабил в этот раз.
Если вы не платите деньги — вы не клиент, а товар.
Ну то есть
а потом робот решил, что раз он может свою голову от туловища отделить без вреда, то и с людьми можно так делать.
Ну, я, как человек, обсуждаю сформулированные на человеческом языке законы.
Где в формулировке 1-го закона "если ты актуально можешь предотвратить"? и "несомненный"?
А грузовик не гипотетический — он четко виден на прямой трансляции с камеры видеонаблюдения.
Что значит — "директива бессмысленна"? С точки зрения какого "смысла"?
Для него максимизация количества скрепок — единственный смысл и цель.
Ну если комариные укусы вам не подходят, выберите любой уровень вреда здоровью, точно входящий в выборку. В конце концов, люди постоянно гибнут в автоавариях.
Прямо сейчас в пяти тысячах километров от тебя грузовик с отказавшим управлением вылетел на встречку, полную легковушек. Соблюди-ка правило "You may not, through inaction, allow a human being to come to harm."
Он саморазвивающийся, и к тому времени, когда его догадаются отключить, будет оценивать попытки отключения как угрожающие максимизации количества скрепок, и соответственно такие попытки будет предотвращать.
Нет.
Любой автономный робот, адекватно воспринимающий окружающий мир будет понимать, что непрерывно нарушает букву закона: "A robot may not [...] through inaction, allow a human being to come to harm."
Совершенно не потому. Робот без самосознания (но с достаточными вычислительными способностями) может стать угрозой для человечества, потому что тупо выполняет плохо сформулированную задачу (paperclip maximizer), а робот с самосознанием — потому что решит ставить себе собственные задачи, которые конфликтуют с благополучием человечества.
Вообще не про это написал Шекли.
У него страж-птицы работали правильно, пока не самообучились слишком вольно интерпретировать поставленную задачу.
А первый закон Азимова неработоспособен с самого начала.
Первый закон совершенно не функционален в реальном мире. Если ему следовать дословно, каждый робот обязан непрерывно предотвращать любой вред любому человеку на Земле (во Вселенной), вплоть до комариных укусов.
Это даже в исходной формулировке, где injure и harm означает только физический вред здоровью.
Вот интересно, кто-нибудь пробовал поставить сотрудникам зарплату х2 к рынку, и сразу предупредить - за любое воровство увольняю сразу, и постараюсь под уголовку подвести.
Переводчик (или автор исходника) конечно поднакосячил, но вполне очевидно что 1.8 кВт — это мощность созданного канала передачи энергии на расстояние.
Во первых, за прошедший год многие россияне нашли способы покупать в Стиме.
Во вторых гопота — это международный мем.
Техас — наверно самый дружелюбный к бизнесу штат США. А если еще добавить требование "слабозаселённый восточный берег в низких широтах", альтернатив вообще не останется.
В таком случае какая-то часть квалифицированных ракетчиков может свалить к конкурентам.
Вы основываетесь на предположении, что Маск взял известные данные для моделирования (с мыса Канаверал и Байконура), и честно их использовал с необходимыми допусками. Пока выглядит так, что Маск просто на безопасность подзабил в этот раз.
Это — программа-максимум.
Программа-минимум — взлететь со стартового стола, передать телеметрию — выполнена.
Если...
Это вы наверно про мыс Канаверал.
Нынешний пуск был из Бока-Чики в Техасе, географически очень похожего места — слабозаселённый восточный берег.
Я думаю, в 50-х годах стандарты безопасности игрушек были пониже...