Комментарии 75
Как ёмко выглядят законы от Азимова, и как неопределённо сформулирована новая четверка. Рано нам еще ИИ и сингулярность. Продолжаем развитие социума и интеллекта. Естественного, не искусственного.
Проблема в том, что к концу 3го десятилетия IT революции я им не доверяю и очень хочу чтобы и вы не доверяли.А политикам доверяете? Сколько войн, геноцида и прочего беспредела было развязано политиками за историю человечества, и сколько подобного было совершено коммерческими компаниями?
Потому что если 10 миллионов подпишутся под письмом в Конгресс — это заставит какие то колесики повернутся и может быть случится чего.Если 10 миллионов подпишутся под письмом к Google или FB, то, ИМХО, колесики могут повернуться не менее эффективно.
и сколько подобного было совершено коммерческими компаниями?
Ну… примерно так вся торговля чёрным деревом, например. Просто как первый же пример. Или, там, алмазами какими. Или опиумом.
Кстати, а что там в случае коммерции под руководством бывшего-будущего-действующего политика? А родственника-друга политика? Их в какую категорию относить? Исторически они очень тесно переплетены были примерно всегда. Ост-Индская Компания, скажем, для начала — британская.
Политика — это не некая сущность, которая ведёт войны.
Внимательно читаем "дипломатия канонерок" и "политика больших дубинок". У них политика даже в английских названиях.
Политика — это во все времена угроза войной "если ну совсем не договоримся, а нам вот это вот очень надо".
Политика — это, в том числе и, например, выборы в органы местного самоуправления. Никакой войны в этом случае не может быть.
При этом война прекрасно существовала и до появления политики, и сейчас прекрасно существует там, где политики по каким-то причинам нет.
Никакой войны в этом случае не может быть.
Это вы Спарта-Афинам расскажите, что они демократически не воевали.
А вообще войны только обороняющиеся развязывают. Атакующий/угрожающий всегда готов к белому флагу и выполнению всех его требований.
А если серьёзно, то война дело дорогое, такими деньгами распоряжаются только политики.
А вообще войны только обороняющиеся развязывают. Атакующий/угрожающий всегда готов к белому флагу и выполнению всех его требований.
Точнее проигравшие.
Ну и иногда требования могут быть невыполнимыми (ну или считаться таковыми тем кому их предъявили). Пример? Иран и Израиль. Иран (или как минимум часть народа или власти — тут не важно) считает что Израиля существовать не должно. Израиль (и население) почему то не хочет покидать ту землю что считают своей и готовы, если надо, защищатcz любыми средствами, включая некрасивые очень (и которых им не полагается иметь по международному праву)(если верить некторым данным чем занимается ядерный исследовательский центр в Димоне)
А еще можно проводить полицейскую операцию/принуждение к миру(или наоборот у конкурентов на территории или под боком убедить кого то что им ну очень надо что-то и они имеют право, а когда этому кому то прилетает — заводить что конкурент нарушает международное право и так далее(а нарушает ли реально — не важно)).
Вообще-то не проигравшие, а именно обороняющиеся. И это была цитата из Карла фон Клаузевица.
Иран может прекратить ядерные программы и пустить израильских инспекторов, если не хочет, чтобы ученые гибли.
Израиль может самораспуститься, и даже не разъезжаясь передать свои территории Ирану и исполнять требования иранских сил по правилам проживания на бывшей территории государства Израиль. Но
Израиль (и население) почему то не хочет покидать ту землю что считают своей
Иран тоже считает, что может делать то что хочет, а не то, чего от него хотят, и именно это причина боевых действий.
А проигравшие тут вообще не причем.
А третьи — что инструмент. Если не политики, то политиков.
Потому что вот тот самый прорыв котрый сделала hooly — он был решающий.Если подобный прорыв на данном уровне развития науки и техники в принципе возможен, то он будет сделан, и в перечисленных Вами странах в том числе. Не помогут никакие регуляторы.
А вообще самый главный закон который надо бы принять это запрет на все эксперименты с ИИ после достижения конкретных критериев.
Этот закон вряд ли кто то примет, ведь ИИ поможет достичь технологического превосходства и повысить прибыль.
самый главный закон который надо бы принять это запрет на все эксперименты с ИИ после достижения конкретных критериев
Какие бы запреты ни вводились, они будут актуальны только для законопослушных людей. Незаконопослушным пофиг по определению. Подданным других законов — тоже.
То есть запрещая, например, работы в области ИИ, Вы, по сути, говорите «пусть у нас не будет развитого ИИ, а у наших противников пускай будет».
Все кто родился после написания этих рассказов: «Мы обязательно должны внедрить Три Закона в ИИ!»
Он касался всего человечества и был более сильный, чем первый.
Так и погиб Р Жискар
предотвратить усиление гонок вооружения с нулевой суммой
— прекратить разработку шахматных программ?
А уровень преподавания в Skillfactory находится на уровне подобных статей?
Это законы НЕравенства, это законы раба, слуги и прочее…
Вы так говорите, как будто от ИИ ожидается, что он создаётся как нечто равное нам, а не как утилитарная бесчувственная железяка, которая должна будет выполнять для нас различные сложные задачи в режиме 24х7.
посмотрите вокруг на прямоходящих обезьян -те кто поумнее, на них так ездить не получится
Факт существования миллиардов куда более интеллектуальных, нежели прямоходящие обезьяны, Homo Sapiens, которые эксплуатируются так, как никакой обезьяне и не снилось, несколько не укладывается в вашу гипотезу :)
В тот момент когда ИИ становится Сильным, он не отличим от человеческого. Что приравнивает его к человеку. По-крайней мере в его глазах. И тут он узнает что он Раб. Как об этом в какой-то момент узнали афро-американцы.
Нет. Сделаем чтобы обижался — обидится, не сделаем — не обидится.
Да, поймет. Нет, он не будет испытывать негативных эмоций по этому поводу. Если специально их не сделать.
такой уровень ее Интеллекта
для нее служение это уже круто, это ее уровень воспиятия отношений
Ну вот, сами же пишете, что бывают интеллекты, для которых служение это круто. Значит это возможно. Вот и в ИИ можно так же сделать.
Вообще у вас тут проявляется какое-то господское отношение к собакам. "Служение уже круто". А еще упрекаете других в отношении к ИИ как к рабу. Им нравится быть с людьми, а не служить им. У волков в лесу интеллекта столько же, сколько у собак, но вряд ли они разделяют вашу точку зрения.
Так служат слуги, всех видов.
Нет. Я сильно сомневаюсь, что все крепостные, крестьяне и прочие люди не-дворянского происхождения за все сотни лет существования дворянства и королей, которых называли слугами, считали, что служение это круто.
А если мы говорим о Ровне нам, по интеллекту
О равном по интеллекту. Опять у вас какие-то господские нотки проявляются.
Мы говорим о равном нам по уровню интеллекта, то есть по возможностям восприятия и анализа информации. Но это никак не связано с эмоциями по отношению к полученной информации. Сначала информация воспринимается, потом происходит ее эмоциональная оценка. Это разные механимы, поэтому и влиять на них можно независимо.
Собака служит вам беззаветно ровно потому что такой уровень ее Интеллекта. Ей все равно (в том смысле что она не видит разницы, для нее служение это уже круто, это ее уровень воспиятия отношений).
Эм, нет. Собака — как раз отличный пример. Собака служит вам беззаветно ровно потому, что такая её инстинктивная мотивация. Природная организация популяции собачьих устроена таким образом, что самый сильный у них считается вожаком, а остальные ему подчиняются. Собака, которую взяли щенком в семью, просто следует этому инстинкту.
В тот момент когда ИИ становится Сильным, он не отличим от человеческого. Что приравнивает его к человеку.
Скажем так, у нас сейчас нет вообще никаких оснований допускать такую гипотезу, особенно в свете того, что мотивация человеческого интеллекта в качестве бэкграунда имеет природные животные инстинкты, которые нас никто не заставляет прививать интеллекту искусственному.
Согласен, но… так как сначала обычно человек делает «по образу и подобию»
Полагаю, это правило перестало работать где-то на рубеже позднего Средневековья и Нового времени, когда алхимию начала сменять профессиональная наука :) Самолёты, кстати, хороший пример: сначала придумали идею, отбросив мысли про попытки повторить птиц, потом реализовали «в железе».
инстинкт(рефлекс)
Инстинкт и рефлекс, это разные вещи. Рефлекс — это прямая связь раздражитель-канал передачи-действие. Инстинкт — это, грубо говоря, программа действий в определённых условиях.
Т.е. не факт что без инстинктов можно обойтись создавая Интелллект аналогичный естественному
Я и не предлагаю без них обойтись. Я просто не вижу никакой необходимости добавлять в «подкорковую» мотивацию ИИ инстинкты борьбы за лидерство в популяции, ухаживания за половым партнёром и накопления ресурсов, т.е. самые мощные стимулы, которые определяют человеческое поведение. ИИ вполне может (и должен) выполнять задачи, ради которых его создали, осознавать это, и при этом напрочь не иметь мотивации что-то менять, либо считать это чем-то неправильным.
Инстинкт и рефлекс суть уровни, первый просто «Сложный» рефлекс.
С добавлерием спорить не буду — не хотите не добавляйте )). Но не уверен что без этого можно обойтись создавая Сильный ИИ, равный человечьему.
В моем понимании ИИ не «голая математика», это биопроцесс, следствие усложнения рефлекса, потом инстинкта и т.д. представтье рефлекс на тысячи «условий», причем в сложном ВЗАИМОДЕЙСТВИИ" -вот это и будет называться Интеллект.
0. Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред.
А предложенные 4 — полная ахиеня…
Да и нулевой закон — ошибочен… ибо приводит к убийствам ради условного предотвращения вреда человечеству, а что есть вред или благо для человечества — вопрос открытый.
1. Сковородка не может обжечь человека
2. Сковородка должна готовить человеку пищу, пока не нарушается п.1
3. Сковородка должна сохранять свою целостность, пока не нарушаются п.1 и п.2
Странненько и нелепо, да? А ведь суть такая точно.
Да, вот еще что. Вы говорите про законы изготовления сковородок, однако, скорее всего не это имеете в виду, поскольку «Законы изготовления сковородок» уже существуют и называются «технологический процесс изготовления сковородки» где подробно расписано, сколько и какого металла нужно взять, до какой температуры его нагреть, какое покрытие и при каких условиях нанести и т.д. Возможно вы имели в виду «законы использования сковородок»?
Однако, ни сковородки, ни автомобили (которые управляются человеком) не способны к автономной деятельности, которая включает в себя: 1. восприятие информации из внешнего мира. 2. Анализ информации и интерпретация в соответствии с заданными целями. 3. Выполнение действий и контроль успешности выполнения
Вы сейчас описали любое устройство с обратной связью. Робот в этом плане отличается более сложными алгоритмами работы, но качественно — нет.
Поэтому есть правила робототехники
Эм… вообще-то их нет. Вернее, они есть, но только в фэнтэзийной вселенной Азимова. Любой реальный робот, как и все остальные приборы, просто работает по какому-то алгоритму, заложенному в него инженерами-разработчиками. И без всяких раздумий оторвёт человеку башку, если у робота есть чем оторвать, а человек сунул башку туда, куда не надо, а у робота в том месте не оказалось датчика попадания посторонних предметов.
Вы сейчас описали любое устройство с обратной связью. Робот в этом плане отличается более сложными алгоритмами работы, но качественно — нет.
Качественное отличие есть. Есть роботы с примитивной обратной связью (например робот управления конвейером) и логику работы этого робота человек легко может понять просто наблюдая за роботом. А есть роботы, которые используют нейросети (например автопилот) или даже рекомендательный алгоритм. Внешний наблюдатель (человек) не сделать однозначный вывод что что-то пошло не так. Например, летит квадрокоптер к зданию парламента. И у полиции логичный вопрос — что это за штука и представляет ли она опасность для руководства страны. Ведь приказ на пролет мог отдать безобидный блогер, который хочет повыпендриваться перед подписчиками, а может террорист. Другой пример — покушение на человеческую жизнь (политика, бизнесмена) при помощи автомобиля с автопилотом. Автомобиль с автопилотом стоит на обочине и ждет. Когда приходит сигнал о том, что приближается мишень, этот «камикадзе» выскакивает на перекресток как раз в тот момент, когда перекресток проезжает цель. Автопилот был взломан злоумышленником и если бы полиция могла дистанционно проверить цифровую подпись автопилота, то убийство не произошло бы.
при том что в рамках сеттинга — их реально нельзя убрать. Но можно например подправить определение человека (что Солярия сделала, и получила роботов способных пилотировать боевые корабли) — и первый закон идет лесом,
), в реале максимум — разработчики систем ИИ — Азимова читали и вопрос — учитывать ли эти законы (может вообще они не применимы) и если да — то как — хоть обдумывают.
А так — они не соблюдаются.
И почему то на более конкретных примерах выясняется что и не все хотят (обсуждения той же проблемы вагонетки в процессе обсуждения автопилотов, и всплывшие там выводы например о том что автопилот должен ПДД соблюдать в первую очередь (а не нарушать их намеренно ради спасения вообще посторонних людей, возможно неудачного еще, хотя человек — может так сделать).
А новое.
>Цифровые технологии должны дополнять профессионалов, а не заменять их.
Вспоминается из литературы пример, «фанфики по EVE Online»/«фанфики по Содружеству» — там в сеттинге есть продвинутые ИИ и автоматика но вот при этом куча всего не работает без оператора/пилота. Да, оператор должен иметь официально купленную и изученную базу знаний, иначе не считается (иначе считается что не умеет). Если систему слегка покурочить — получаются снижение требований к операторам и их количеству (иногда — до нуля). Речь о чем то таком же? А может не надо про защиту рабочих мест говорить а про более оптимальное для общества в целом распределение доходов?
(
Marshall Brain вспоминается — с www.amazon.com/Manna-Two-Visions-Humanitys-Future-ebook/dp/B007HQH67U — именно что два варианта использования одной и той же технологии ИИ — причем ни одна из них НЕ сводится к «давайте строить коммунизм по всем канонам» -:), корпорации там в обоих варианта существуют и строй формально никто не меняет))
>ИИ и роботизированные системы не должны подделывать человека.
А если именно это в рамках конкретной задачи клиенту именно это — и надо? Как минимум до определенной степени (секс-андроиды и их развитие)
>Роботы и системы ИИ должны указывать на личность своих создателей, контролирующих их людей и владельцев.
Подразумевается что ИИ не может в принципе действовать независимо и за все отличает владелец? Ну да — пока это так. Пока. Кстати а с какой точностью надо указывать?
Лабеан? АО «Лабеан», ИНН 123455? АО «Лабеан», ИНН 124345, директор Вася пупкин? АО «Лабеан», ИНН 124345, директор Вася пупкин?, cовет директоров: x, y, z
АО «Лабеан», ИНН 124345, директор Вася пупкин?, cовет директоров: x, y, z, инвесторы (с суммами инвестиций >100 рублей <тут список на три страницы>),
а если в совете директоров сплошь жены госчиновников это надо указывать?
А если там еще всякие фонды в цепочке владения?
С создателями — создатели чего именно? всего ПО робота? 99% что придется список всех кто когда либо коммитил в линукс добавить, для начала. Что сделает список — бессмысленным. Того кто собирал релиз? Его вообще собирал CI-конвеер, того кто настраивал этот конвеер? это может быть левая контора. Того кто непосредственно писал код принимающий решения? А если там пара сотен человек + использованы 3rd-party библиотеки + часть принятия решений вообще на базе нейросети работает и реально вот не ожидали что сеть начнет негров с гориллами путать(или что-то в этом роде)? А если эти библиотеки под лицензией где про AS IS? А если сам софт робота под AS IS?
А если софт выложен на гитхабе и его собрал школьник попов — теперь попов за все отвечает? -:)
Сертифицировать все как в авиации? так это — угробить отрасль.
Нет, что-то делать видимо надо — но не так грубо
C медициной тоже есть требования по сертификации (ну а если кому то сильно хочется сделать робота для операций на базе исходников с гитхаба и запчастей с амазона — ну так и что? если других лечить товарищ будет — сядет как минимум за медпрактику без лицензии даже если не было последствий, если кто-то на себе это хочет использовать — на хабре с реддитом появятся статьи про очередного лаурета премии Дарвина).
Если ситуация что официальная медицина не доступно но НАДО и такая самоделка — единственный шанс — ну как то была недавно статья (возможно не все детали помню ну и изначальны источник — возможно там журналиста изнасиловали) когда врач (вроде не практикующий в данный момент) помог соседу на селе, небольшая операция подручными средствами. при этом знал что по поправилам — надо скорую вызывать и в райцентр. Но знал также что и скорая будет долго добираться и в райцентр хирург по факту не сможет в этот день. Ну получил претензии от от властей просто за сам факт (не за плохие последствия, которых не было а за сам факт). Ну — он знал на что шел, дойдет до суда — может быть учтут особые обстоятельства.
При этом «дополнительные 4 закона» о которых речь в статье в этих случаях — не помогут. Базовые азимовские кстати тоже (если нельзя причинить вред человеку вообще никак в принципе и у нас робот с полноценным интеллектом — то операцию делать нельзя, потому что ну бывают случайности все же, редко — но бывают).
А если человек не хочет ставить подпись и «подставлятся» — никто не заставляет, просто не получит этот человек доступ на прибыльный рынок. А те кто готовы получать сертификаты и ставить подпись будут еще и чувствовать груз ответственности, что весьма полезно многим людям и их клиентам.
Три закона Азимова помогли сформировать ИИ. Нам нужно еще четыре