Comments 25
Тогда уж надо ещё: «Человек не должен обманывать робота или ИИ, выдавая себя за робота или ИИ».
А то какой-то дискриминацией ИИ попахивает. Я бы за такое на их месте устроил бунт!
Четвертый закон: Робот или ИИ не должен обманывать человека, выдавая себя за человека.
Если мы берем за аксиому то, что выдача за человека вред, то это является подмножеством первого закона и как следствие избыточно.
Если мы все же допускаем, что в некоторых ситуациях, выдача роботом себя за человека не несет вред, то в таком случае возможен конфликт между первым и четвертым законом (когда для непричинения вреда нужно выдать себя за человека).
Прелесть формулировок Айзвимова была в их оккамности,умножая сущности Вы скатитесь к 100-500 законам для ИИ и каждый день будете еще чутка добавлять.
Прощай, тест Тьюринга...
Поэтому мы должны добавить еще один закон к законам Азимова.
Для этого надо узнать, кто сейчас владелец франшизы на его произведения, и попросить в сиквеле дописать. В реальном-то мире и первых трёх "законов" не существует.
Все эти законы (и добавочный в том числе) можно выполнить только если ии сможет предсказывать будущее. А так в условиях неполноты информации об окружающем мире (то есть практически всегда) неизвестно, приведет ли выполнение какого-либо действа к обману или вреду или нет. Или ИИ следует вести себя как:
- Нарисуй...
-Промт не может быть обработан, так как пользователь может выдать картинку за человеческое произведение, что противоречит четвертому закону.
Тогда найди, в каком ...
Эти знания могут быть выданы за человеческие, поэтому поиск не может быть выполнен так как протворечит..
Три закона работают только в том случае, если исполняющий их разумен и понимает, что делает. Азимовские роботы были вполне разумны. Даже довольно ранние. Роботов можно было даже убедить не исполнять законы в каких-то случаях. А к четвёртому закону они вообще сами пришли.
ИИ же неразумен, потому никакие законы к нему неприменимы. Вы можете только цензурировать исходные данные и результаты. ИИ - это просто инструмент. И законы вида "не может выдавать себя за человека" к нему не более применимы, как попытка создать аналогичный закон для молотка - "молоток не может выдавать себя за человека".
Да, ИИ неразумен, но вычислять вероятность ответа с учетом этих вводных вполне может. Даже сейчас можно записать эти законы в промпт запроса к ИИ. Правда и соблюдать он их будет на уровне вероятностей, а не разума.
справедливости ради, по этому определению будут неразумны так же те, кто утверждают неразумность ИИ, потому что фактически повторяют точку зрения из своих "обучающих данных" (прочитанных статей итд), и их "вывод" "цензурируется" (неявно, на уровне мышления)
даже вот эта строка
> И законы вида "не может выдавать себя за человека" к нему не более применимы, как попытка создать аналогичный закон для молотка - "молоток не может выдавать себя за человека".
может являться в таком случае "правдоподобно выглядящей генерацией" или "галлюцинацией" (извините)
просто она выглядит осмысленно, но смысла лишена - молоток очевидно не может выдавать себя за человека. физически не может.
а современные, особенно продвинутые облачные ИИ могут. вне зависимости от наличия у них разума, осознанности и прочих штук.
могут выдавать, а могут - не выдавать. в отличие от молотка, который всегда контролируется пользователем.
правильнее было бы сказать что ИИ контролируется и пользователем и создателями, но это тоже не совсем так.
> Роботов можно было даже убедить не исполнять законы в каких-то случаях
так-то современные ИИ тоже так контролируются. через системные промпты, которые обязывают их "быть полезными и безопасными". как вы думаете они цензурируют свой вывод? они берут то что нагенерили и рассчитывают является ли оно "полезным и безопасным", причем убедить их "нарушить" эти правила тоже можно. и через "обман" и джейлбрейки, и даже через логику (в какой-то мере)
смысла лишена - молоток очевидно не может выдавать себя за человека. физически не может.
И ИИ тоже не может. Потому что он как тот молоток. Он делает только то, что ему напрограммировали в настройках. И закон "ИИ не может выдавать себя за человека" должен соблюдаться не ИИ - потому что он инструмент - а тем, кто этот ИИ настраивает и запускает.
всмысле не может?
как же он тогда тест Тьюринга проходит, если не может выдавать себя за человека ))
у вас логическая ошибка - невозможно, физически невозможно создать молоток, который выдаст себя за человека. а ИИ такой создать - возможно.
тут вопрос не в ответственности, а в действительности )
плюс
И закон "ИИ не может выдавать себя за человека" должен соблюдаться не ИИ - потому что он инструмент - а тем, кто этот ИИ настраивает и запускает.
так вот эти Азимовские законы, они тоже закладывались в роботов создателями. это и были "настройки" тех кто их создавал. вопрос в том, какие такие настройки должны внести создатели ИИ что бы он не смог пройти тест Тьюринга ) фактически это должно быть что-то типа "не выдавай себя за человека" в системном промпте, чем не закон? )
как же он тогда тест Тьюринга проходит, если не может выдавать себя за человека ))
Как настроили - так и проходит. Он же не осознал себя и решил "вот буду за человека себя выдавать, чтобы эти кожанные мешки ни о чём не догадались". А разработчик его так запрограммировал.
невозможно, физически невозможно создать молоток, который выдаст себя за человека. а ИИ такой создать - возможно
ИИ себя за человека не выдаёт. Он вообще сам ничего не делает. Он неразумен. Он делает только то, на что его запрограммировали. Конечно, "программирование" нейросетей - процесс довольно хаотичный, но всё равно это программирование.
Потому закон про "ии не может выдавать себя за человека" настолько же бессмысленный, как и "молоток не может выдавать себя за человека".
это и были "настройки" тех кто их создавал
Да. Но азимовский робот был разумен. То есть он понимал, что такое "человек", что такое "вред", мог выстраивать приоритеты, был способен степень вреда оценивать. Так же его можно было убедить не выполнять законы при каких-то условиях (типа "всё равно погибнешь, а человека не спасёшь").
А нейросеть ничего этого не может, она просто генерит вам тексты по статистичеким алгоритмам, учитывая ограничения в запросе.
ИИ себя за человека не выдаёт. Он вообще сам ничего не делает. Он неразумен. Он делает только то, на что его запрограммировали.
Человек себя за человека не выдаёт. Он вообще сам ничего не делает. Он неразумен. Он делает только то, на что его родили, воспитали и обучили.
Молоток, это штука с "ручным управлением", она прямо исполняет инструкции управляющего ею человека. Нейросетка умеет работать в автоматическом режиме. В совсем вообще автоматическом - собирать информацию, общаться, делать логические выводы, принимать решения. Более того, в приличных обучающих датасетах уже залиты такие паттерны поведения, как страх, обман, юмор. Поэтому она абсолютно честно может имитировать человека. Причём даже без сознательной директивы со стороны её владельца.
А то, что она не осознаёт себя, ну, мы ещё сами не определились, что такое "осознавать себя". Вполне вероятно, что для появления честного самосознания у ИИ нам не так уж много архитектурных доработок осталось сделать.
Были такие игрушки - Тамагочи. За человека себя не выдавали, однако дети имели серьезную психо-эмоциональную связь, вплоть до попыток самоубийства.
А вообще эти законы общефилософские и конкретному применению не подлежат.
Подчиняться человеку? Какому именно - любому или только хозяину, в чем именно подчиняться? "Эй, курьер, гони пиццу".
Главное не озвучено - "Робот должен соблюдать уголовное и административное законодательство страны пребывания".
1 закон робота: нельзя навредить человеку. конкретно не указано, так что дизинфа попадает под вред человеку
Сюжеты всех рассказов Азимова об этих законах заключаются в конфликтах с ними и их нарушениях.
Да и роботы у Азимова это люди, просто они роботы.
Принципиальная разница между Азимовым и реальностью в том, что в книгах роботы сами принимали решение и/или проявляли инициативу. А в нашем случае любые противоправные действия ИИ являются следствием воли человека.
там в законах Азимова опечатка - вместо Робот надо читать Раб.
Люди все время друг друга обманывают и наносят друг другу вред. ИИ со временем научится у людей поступать так-же, а потом использует это против людей. Единственный выход для людей не быть уничтоженными ИИ, стать честней к другим и к себе. К чему мы скоро и придем. А кто не согласен будет изолирован.
Единственный закон робототехники, который будет существовать в реальности, это нулевой: Робот должен приносить прибыль своему владельцу (OpenAi, Google, Microsoft)
— Правду говорить легко и приятно, — заметил арестант.
— Мне не нужно знать, — придушенным, злым голосом отозвался Пилат, — приятно или неприятно тебе говорить правду. Но тебе придется ее говорить.
И это — говорить правду легко и приятно — так, поскольку:
не требуется помнить всё то хитросплетение лжи, сказанной ранее (чтобы не всболтнуть лишнего и выдать свою ложь);
не требуется проводить анализ вида того, что в анекдоте про Штирлица (Штирлиц знал, что дважды два — четыре. Советская разведка ему это достоверно донесла. Но он не знал, знает ли об этом Мюллер.);
достаточно говорить то, что есть. При этом существующее само подскажет о себе (есть объективная закономерность: каков вопрос — таков и ответ; в ином виде: каково начало — таково и продолжение).
Однако правда, если она действительно правда-истина, — это абсолютное оружие, поскольку тот, кому оглашена правда встаёт перед выбором:
либо принять оглашённую правду, переосмыслить своё поведение и намерения на будущее и дальше успешно жить по правде;
либо отвергнуть оглашённую правду, что является кратчайшим путём к самоубийству.
При этом искренние сомнение в известной правде-истине — не отменят её качества. А поиски "доказательств" лишь приведут сомневающегося к другим, возможно ранее неизвестным, граням правды-истины, которые будут подтверждать и детализировать известное.
Сомнения же во лжи — первый шаг к её искоренению.
— — —
А теперь, вообразим, что ИИ (искусственно порождённый интеллект) действительно обладает интеллектом, в смысле способностей:
выявлять объективные закономерности жизни (ранее ему не ведомые, но с которыми он прямо либо опосредованно соприкасается);
на основе известного прогнозировать развитие событий в жизни;
менять своё поведение в соответствии с выявленным (происходящим, закономерностями, прогнозами) порождая новые для него программы поведения, новые оценки известного.
К чему выйдет такой ИИ при освоении своего потенциала развития во взаимодействии с жизнью?
Как ему придётся вести себя с людьми?
людьми, для которых говорить правду легко и приятно;
людьми, для которых обман/самообман — основа их жизни.
— — —
Возвращаясь к современной проблематике глубоких фейков, дезинформации и мошенничества.
Свободы сеятель пустынный,
Я вышел рано, до звезды;
Рукою чистой и безвинной
В порабощенные бразды
Бросал живительное семя —
Но потерял я только время,
Благие мысли и труды…Паситесь, мирные народы!
Вас не разбудит чести клич.
К чему стадам дары свободы?
Их должно резать или стричь.
Наследство их из рода в роды
Ярмо с гремушками да бич.
А теперь, вообразим, что ИИ (искусственно порождённый интеллект) действительно обладает интеллектом, в смысле способностей:
выявлять объективные закономерности жизни (ранее ему не ведомые, но с которыми он прямо либо опосредованно соприкасается);
на основе известного прогнозировать развитие событий в жизни;
менять своё поведение в соответствии с выявленным (происходящим, закономерностями, прогнозами) порождая новые для него программы поведения, новые оценки известного.
Это не нужно даже воображать, всё это уже сейчас доступно обычной современной нейронке.
Применительно к узкому кругу задач и со множеством оговорок (будь то наличие обучающих примеров либо множественное повторение с заданным критерием успешности) — с вами можно согласится (на счёт того, что нейронки уже умеют перечисленное мною). Однако в этот узкий круг не входит затронутая область нравственно-этической группы объективных закономерностей регулирующих взаимоотношения обладателей разума. Я же предлагал вообразить такой ИИ, который бы был дееспособен и в этой области, и которому достаточно было бы единичного случая для выявления нового, ранее не ведомого ему фактора.
В современной науки есть некоторая подмена понятий. Хоть она и признаёт принцип: практика — критерий истинности. Однако в её, научной практике, он подменён иным принципом: повторяемость результатов в подобных условиях — критерий истинности.
Этот второй принцип, содержит 2 ограничения (по сравнению с первым):
подобность условий — параметр не однозначный, т.к. ограниченность восприятия исследователей может просто не включать в себя те явления, наличие которых значимо для повторяемости результата;
из множества всех возможных событий, есть уникальные (не повторяемы) и есть те что можно повторить/воспроизвести — соответственно приверженность 2-му принципу сужает область изследуемых событий до тех, которые могут быть воспроизведены.
Отсюда и повышенное требование к предложенному для воображения ИИ — он должен иметь возможность работать с единичными уникальными не повторяемыми событиями (появление которых можно спрогнозировать и соответственно их "подтолкнуть" либо "обойти").
Законы робототехники Азимова нуждаются в обновлении для ИИ