Как стать автором
Обновить

Комментарии 66

> конструирование робота-убийцы специально для совершения правонарушения;
Кто решит в рамках военной программы создавался робот или в частном порядке?

> отключение программных и аппаратных функций, блокирующих возможность причинения вреда человеку;
Это единственная разумное предложение, что если в аппарате ЕСТЬ такие функции, то отключать их нельзя.

> конструирование робота, способного причинить вред человеку;
ЛЮБОЕ устройство способно причинить вред человеку. Вообще любое.

> конструирование робота без осознания того, что он может быть использован для причинения вреда человеку.
Можно всех инженеров, которые создавали любое устройство сразу в тюрьму.

Я не понимаю формулировку этих предложений, особенно в реалиях судебной системы, их можно трактовать как угодно.
Вот ровно такие же вопросы возникли. По предложенным пунктам ВСЕХ без исключения создателей роботов надо сажать.
>> конструирование робота, способного причинить вред человеку;
>ЛЮБОЕ устройство способно причинить вред человеку. Вообще любое.

Вот именно поэтому закон и примут.
Речь идёт о классификации уже совершённого правонарушения, а не о каких-то превентивных мерах. Во всех странах убийство по злому умыслу, убийство по неосторожности, убийство при самообороне и преступное бездействие — разные статьи. Несмотря на наличие таких статей, мы не сажаем кого попало просто за то, что он может кого-то убить. Такой вариант мог предположить только юридически безграмотный человек, коих в странах бывшего СССР подавляющее большинство.

Точно так же преступления, совершённые с помощью роботов, должны иметь классификацию, которую автор закона и предложил исходя из норм текущего уголовного кодекса. Вполне адекватную классификацию, надо признать.

Ключевым моментом должно быть определение, что такое робот, и кто несёт за него ответственность. Вопрос в том, есть ли необходимость такого определения. Есть ли смысл вообще вносить в законодательство такое понятие, какие вопросы и какие случаи такой закон может описывать принципиально иначе, чем нынешний?
Простите, там нет никакой классификации уже совершенного правонарушения. Там есть о вреде человека.

Мне поставили пломбу. Но при этом мне сверлили зуб. Это вред, нанесенный автоматом.

Кому-то делали коррекцию зрения, при этом операция прошла неудачно. Виноват будет не доктор, а тот, кто конструировал лазер?

Классификация совершенно неадекватна, поскольку она перекладывает вину с непосредственно исполнителя, на того, кто создавал любое устройство, которое злоумышленник можно использовать во вред.
Ваш вопрос не к классификации правонарушений по типу, а к правилу, применяемому исходя из классификации. Чувствуете разницу? Можно изменить правило, не меняя классификацию, и всё встанет на место.
Поддерживаю!
В УК уже и так есть статьи на случай «собрал робота убить тёщу».
Теперь этот умник предлагает посадить меня сразу, за то, что я хочу собрать робота-охранника для моей квартиры?
Или аффтар проекта хочет, чтобы таких «зловредных» роботов можно было производить то лицензированным(тм)(с) предприятиям вроде mail.ru?
Последний тезис про уровень роботизации в РФ некорректен. В новых производствах, в особенности высокотехнологичных, уровень роботизации не отличается от общемирового. Другое дело, что большинство производств в стране — наследие СССР и понятно, что с роботизацией там не очень.
Так а в чем некорректность тезиса? У других стран были свои старые предприятия но они их модернизировали/закрыли и поднялись до соответствующего уровня.
Слава роботам! Надеюсь, все-таки не нужно будет по этому закону 3Д-принтеры и станки с ЧПУ регистрировать, как использующиеся в производстве.
Это зависит от определения робота, которое они должны были дать
"… Стояло жаркое, засушливое лето.
Горели конопляные поля."(с)народное творчество
Поцелуй мой блестящий зад
Соглашусь с комментарием saboteur_kiev, и добавлю такое мнение в опросе:
Если робот будет иметь ИИ и обучен понятию «вред человеку» то ответственность брать именно с робота. Не с человека
ответственность брать именно с робота

Можно уточнить, что Вы под этим имеете в виду?
ИИ знает и понимает, что такое вред человеку. Значит, если вред человеку был причинен, то он причинен осознанно(но только в случае ИИ). Как, собственно, и человек, он знает что убивать это вред, но он убивает, и несет ответственность за убийство.
Да-да, кажется бредом, но имхо, так и должно быть
Простите, я неясно сформулировал вопрос. Я имел в виду — каким образом робота наказывать и как это поможет?
Кстати, у меня есть похожий вопрос. Как наказывать юрлицо? Допустим компания совершила убийство. Что делать? Посадить президента? Ну так акционеры назначат нового.
Можете объяснить, каким образом компания может совершить убийство?
Для целей получения прибылей мешает один человек. Допустим, он знает лишнее. Директор отдаёт приказ, выполняет служба безопасности. Все надеются, что их не найдут. Фактически директор подписывается на рулетку: много денег в виде бонусов, если повезёт, и тюрьма — если нет. Есть такие директора, которым не привыкать.

Допустим, ему не повезло, его нашли. Его посадили. Компания продолжает работать, и нанимает нового директора. При этом все финансовые стимулы остаются какими были — новому директору тоже выгодно совершить убийство если что, потому что деньги нереально большие на это замешаны.

При этом выгодополучатели, инвесторы, в любом случае деньги получат и вроде как не при чём. «Я хочу результат, как ты его получишь — твоя проблема. Если сможешь — тебя ждут бонусы».
В таком сценарии финансовая выгода для компании — это только мотив. Виноваты определенные люди — директор как заказчик, исполнитель из службы безопасности.
А вы помните, за что сажают заказчика? Он ведь никого не убивал. Он просто создал мотив для убийства.

Так вот, бизнес может создавать такие же мотивы, фактически являясь супер-зазазчиком. Посадите одного директора на его место придёт другой, и будет оптимизировать прибыль таким же способом. А убитых людей уже не вернуть.

В принципе эта схема работала, если бы удавалось раскрыть каждое преступление и наказать всех виновных. Но на практике у бизнеса есть и рычаги влияния, и множество ресурсов, чтобы скрывать свои преступления и уходить от наказания. Хорошо, если одного из четырёх убийц поймаете.

А это значит, что преступный путь по-прежнему будет сладок для персонала, хоть и рискован. Чтобы прекратились преступления надо как-то наказывать сам бизнес, но как?
Консультант плюс говорит, что подстрекатель — соучастник преступления.

А как бизнес может быть виноватым — я так и не понимаю. Компания не может сама по себе принять решение убить человека — это делает руководство. У бизнесменов есть мотивы и средства совершать преступления, но это не значит, что это проблема бизнеса — это проблема людей, им занимающихся.
Ссылка на планету Железяка.
А какие наказания могут быть? Тюрьма не вариант, спящий режим и все. Как в анекдоте: «ну, пороть, я так понимаю, уже бесполезно...»
Единственные наказания возможны только разборка и уничтожение сознания робота
Я не думаю, что это можно считать наказанием. Наказание должно быть чем-то неприятным, а в случае с роботом само понятие «неприятно», по-моему, не имеет смысла.
Давайте тогда отъявленную часть зеков тоже, не сажать, а придумывать новое наказание, так как им «зона как дом родной», никаких неприятностей не приносит.
Но ведь можно логически заключить, что ИИ должен обладать чувствами, и он должен «бояться» своей смерти в виде разборки и уничтожения.
Извините, я не могу логически заключить, что ИИ должен обладать чувствами.

Любой ИИ — это программа, созданная и настроенная для решения определенных задач. Если эти задачи требуют наличия чувств (искусство, например), то разумеется, без них конкретный ИИ не обойдется.

И то, пример с искусством кажется мне каким-то натянутым. Может, Вы подскажете более подходящую задачу, для которой нужен ИИ с чувствами?

В подавляющем же большинстве случаев, чувства (которые по определению субъективны и нерациональны) искусственному интеллекту будут только мешать выполнять свои задачи.

Я бы, например, не хотел, чтобы мой робомобиль повез меня на море вместо работы, потому что ему захотелось на пляж. Зато я хочу, чтобы робомобиль повез меня в больницу если объективно обнаружит, что я без сознания и не дышу. Или чтобы ромобобиль сам съездил на ТО потому, что пришло время, а не потому, что хочет провести время с симпатичным робомехаником.

Возможно, я что-то упускаю, не укажете на неточность?
Любой ИИ — это программа, созданная и настроенная для решения определенных задач

Позвольте, но ИИ, это все-таки Искусственный Интеллект, а не программа. Да, он работает по программам и алгоритмам, но он может от них отступать и модифицировать их, потому что это все таки интеллект. А интеллект, даже искусственный, вполне может и должен развиваться с чувствами, осознанием своих действий, иначе мы опять возвращаемся к программе, едущей по своим рельсам в соответствии с алгоритмом.
И ваш пример с робомобилем не совсем корректен, т.к. ваши желания о самостоятельном ТО и экстренной доставки вашего тела в больницу, не более чем функции автопилота-программы.
И если задуматься, если робомобиль обладает интеллектом, и понимает, что если он отвезет вас на море вместо работы, то вас уволят, лишат зарплаты, то есть он понимает, что таким образом он нанесёт вам вред, то будет ли ИИ, настроенный на цель «не причинять вред человеку», так делать, даже путем реализации своих желаний? Он же может понять, что в таком случае вы робомобиль разобьете/разберете/сожжете/аннигилируете?
Давайте определимся с терминами «Искуственный интеллект» и «Чувства». Похоже, мы просто по-разному их понимаем.
Я под ИИ понимаю программы (или, точнее, программно-аппаратные комплексы), способные рассуждать и тем самым синтезировать качественно новые знания.
А говоря «чувства» я имею в виду позитивное или негативное отношение личности к тому или иному предмету или явлению, не связанное с рациональным мышлением.
По вашему, синтез новых знаний не связан с чувствами, а чувства не связаны с рациональным мышлением? Как же тогда в живописи применяют метод золотого сечения, гармоники в музыке?
Так же, как и синтез знаний, мы не хотим, нам это неинтересно, какие новые знания мы получим? Скажем так, знания будут не очень. А если интересно, это завораживает, то и знания мы приобретаем намного более «качественные» и «сильные». Этим интеллект и отличается от просто «умной машины»
По-моему, скорее даже наоборот, чувства мешают синтезу новых знаний. Можно проигнорировать какой-то факт, который согласно чувствам незначителен, можно отказаться от чьей-то гипотезы, которая может оказаться верной, потому что человек, ее высказавший, неприятен учёному. Да и насчет интереса тоже:
мы не хотим, нам это неинтересно, какие новые знания мы получим?
Из-за того, что человеку что-то интересно, а что-то — нет, продуктивность получения новых знаний может снизиться вплоть до отрицательных величин — ученый может развивать интересную ему гипотезу вместо неинтересной, но верной.
Но скажите все же, что Вы понимаете под ИИ?
Да, у нас с вами разные понятия интеллекта.
Для меня ИИ это искусственно созданный интеллект, способный к самосовершенствованию и «психологическому» развитию. Да, по моему мнению, ИИ должен обладать чувствами, иначе это не ИИ, а просто хорошо разработанная программа.
Наказания для роботов и уничтожение их сознания сразу этот клип напомнили:

А можно я предложу? Можно?
Предлагаю срочно разработать дизайн водительских прав для робоавтомобилей, насущнейшая же проблема. И срочно вынести его на обсуждение ГосДумы.
Не очень понятно для чего это нужно? Американцы в Мичигане приняли 4 закона, чтобы окончательно легализовать робомобили. То есть у них уже было чем пользоваться. А наши решили пойти системно и создать законодательную базу? А пользоваться чем? Что сейчас мешает?
Или вот реестр по типу ЕГРЮЛ для роботов. Как туда попасть? А акцизные марки на роботов будут клеить? Роботы-пылесосы подпадают под эти требования? Кто бабосики будет собирать за регистрацию?
Лучше бы начали с закрепления в законодательстве определений: «личность», «человек». После чего определили бы статус ИИ (различных видов) относительно этих понятий.
А сейчас это просто костыль с непонятными утверждениями вроде «нет эмоций — не может быть субъектом права».
Чтобы дать определение понятиям «личность», «человек» и «разум» нужно прочитать и понять труды полусотни философов всех времён или хотя бы Гегеля. Вы призываете к самоубийству служителей государства путём заворота мозгов? =)
> Лучше бы начали с закрепления в законодательстве определений: «личность», «человек»

Чтобы что-то закрепить, нужно что-то иметь.
Какие ваши определения?
Человек просто устал от генерации бесконечных цифр в отчетах для акционеров, переутомился чуток.
Теперь осталось главное — разработать самих роботов.
Ответственность за производство — нет. Не оружие убивает, а люди. Касательно уставов и прочего — есть понятие приказа, или в данном случае — инструкции. Ответственный за ввод инструкции(управление) — отвечает если что-то пойдет не так.

Применению оружия всегда соответствуют правила(у нас с вс они прописаны в УВС ст.13) и использование роботов в целях военных должно быть равноценно применению любых других видов вооружений. Ответственного в этом случае найти легко — накосячил оператор — виноват он; виноват командир, давший приказ на использование — виноват он; пошла неполадка в системе — виноват инженер, причем расследование выявит ответственного за нужный узел или программный компонент. Если вопрос идет об автономных машинах — все-равно есть человек вводивший инструкции, а так-же лицо ответственное за разработку этих инструкций. Все работает на практике и давно.

Кто виноват, если отвалится колесо у самолета и упадет на человека? Найдут. А если бомба случайно вывалится из бомбардировщика? Найдут. Если гражданский завладел вооружением и использовал. Виноватых найдут всегда. Ибо отчетность и ответственные везде прописаны. А париться на том, что робот — самостоятельная единица и сама решает, что хочет — пускай. Модно же
Вот только проблема, что не «найдут», а назначат.
Роботы выше закона. Слава роботам.
Думаю, при бытовом использовании роботов во многом можно провести параллель с домашними животными, как сущностями имеющими способность к обучению и развитую систему принятия решений.
К примеру, тот же автомобиль Geohot'а можно легко натренировать загонять всех встречных кошек на деревья.
Поскольку сейчас автономных роботов уже вовсю начинают коммерчески использовать — действительно настало время подумать о безопасности людей. И в первую очередь о возможности их использования террористами. Я думаю, что для предотвращения этой угрозы нужно обеспечить возможность для любого человека быстро и с большого расстояния определить, кто является владельцем и кто — производителем того или иного робота, и под чьим контролем он в данный момент находится. Для этого наиболее логично, на мой взгляд, будет в каждого автономного или дистанционно управляемого робота, предназначенного для передвижения в общественных местах, встроить микросервер, который по запросу со смартфона через Wi-Fi будет выдавать такую информацию, а для коммерческих роботов — ещё и GPS-координаты. Для идентификации робота пользователь должен навести на него камеру и указать его на экране смартфона. При этом специальное приложение для смартфона, получив эту информацию со всех роботов в радиусе действия Wi-Fi, а также уточнив положение интересующего пользователя робота по данным своего GPS-приёмника и датчикам ориентации смартфона, может выдать запрос через интернет на некий центральный сервер для установления подлинности полученной информации, и выдать в результате список роботов находящихся поблизости, с указанием всех их данных и степени их потенциальной опасности. Помимо смартфонов мониторить перемещения потенциально опасных роботов должны также специальные устройства, установленные в общественных местах. Всё это позволил с большой долей уверенности определить, что нечто, выглядящее как автоматическое такси Uber или дрон-доставщик от Amazon действительно являются ими, и не находятся под контролем преступников — и в случае нанесения ими какого-либо ущерба — знать с кого за это спрашивать.
Решительно не понимаю, а в чём кардинальное различие к примеру роботизированного автомобиля от машины с удалённым управлением? И то и другое можно использовать для тотального экстерминатуса. Второе даже удобнее, ибо нет «лишних» дырок, которые могут помешать в осуществлении задуманного. И самое главное, это дёшево и доступно вотпрямщас.
Принципиальных отличий нет, разница только в массовости применения, и, соответственно в отношении к ним людей. Сейчас роботизированные автомобили, как и машины с удалённым управлением встречаются нечасто и вызывают настороженное отношение. А когда они будут повсюду — они станут привычными, и потому — более опасными.
А определение самого понятия робот в этом законе есть?
А ему программа не позволит
ИИ же программы сами писать будут. Перепишет свою, делов-то.
«Хакнув ржавый трактор, я валю из Рашки,
Роботёнок Пётр с USB на башне!..»
С такими законами его не сделают в России, хотя создается впечатление что именно этого они и добиваются.

Что это, страх что ктото сделает робота который убьет их всех, сами знаете кого, либо просто попытка признать бесовщиной все то, в чем уже безнадежно отстали непонятно…

Вот буквально вчера посмотрел несколько серий из мультсериала "Star Wars" и там таких вопросов совсем не стоит. Очень часто звучит "убить их", и роботы тут же принимаются выполнять команду. Так что в этой истории мне больше всего понравилось упоминание Азимова. Может это сподвигнет кого-нибудь перечитать/прочитать впервые его произведения вместо просмотра всякой белиберды в мозг.

Кто-то, видимо из фанатов звездных войн, еще и в карму минус поставил. Ну и ладно, а я тем временем узнал про нулевой закон робототехники.
Явно надо как-то учитывать, что если роботов много, а смертей мало, то это всё таки хорошие роботы и хорошие инженеры.
Допустим инженеры разработали роботы автомобили, причём такие, что вероятность попасть в ДТП на таком автомобиле в 100 раз ниже, чем на обычном. Допустим всё человечество ездит на таких. Тогда чило жертв в ДТП снизилось с 1,2 млн. в год до 12 000 в год. Что тогда? Вешать эти 12 000 смертей на инженеров и посадить их?
Я выбрал вариант полной ответственности для владельца. И не понятно, с чего должно быть иначе? Оно ведь и сейчас так — устанавливаешь программу, первым делом читаешь пользовательское соглашение, из которого узнаёшь что тебе ничего не должны, и все риски — за твой счёт. А если работаешь с опен сорсом, то вообще не понятно, почему кто-то должен бесплатно брать на себя риски.

Так что все риски — на владельце робота. Если он их боится, то станут хорошо продаваться гарантии производителя, которые будут идти вместе с лицензионным соглашением. В общем, всё как в авто. Владелец отвечает. Ну или пользуется услугами страховой фирмы.
Покупаешь ты программку. В EULA написано — я не я и хата не моя, в случае чего ты ССЗБ. А не деле программка подключает тебя к ботнету по взлому Пентагона и запуску МБР. В этом случает тоже ты виноват? Утрирование, конечно, но общая идея ясна — могут быть косяки, которые от пользователя не зависят. Так почему он должен нести за них ответственность?
Тут предполагаю как и с автомобилями нынче, просто аналогия была не до конца высказана. По большей части ответственность на владельце, но если вдруг баг в прошивке авто приведет к аварии — влетит уже компании.
> Так почему он должен нести за них ответственность?

Чтобы он начал выбирать безопасный софт с хорошей репутацией. Знаете, как мне надоело каждый месяц читать офигительные истории про бекдоры и глупости домашних роутеров? Почему-то решили, что человек не отвечает за своё имущество, вот и развелось погани. Отвечал бы — покупали бы только надёжные роутеры. А если бы покупали только надёжные роутеры, то и продавать начали бы только их.

Вот у тебя сломались тормоза на автомобиле и ты раздавил старушку на остановке? Кто будет отвечать? Ну а кто ещё кроме тебя? Впрочем, специально для того, чтобы не продавали автомобили без тормозов есть регулярный техосмотр, как способ понизить риски.

Насчёт роутеров — я написал, что пример утрированный. Но даже самый уважаемый производитель не застрахован от багов. Не бекдоров, нет. Но глюки бывают.
Теперь по машинам. Конечно, если ты вовремя не прошёл ТО и не заменил износившиеся тормоза (читай — не следовал инструкции), то ты и виноват в ДТП. Но если проблема в, условно, заводском браке, то ответственность должна быть на производителе.
Кстати, насчёт выбора качественного. Человек не должен, да и не может разбираться во всём. Вот мы тут знаем, какие роутеры хорошие, а каких надо избегать. А тётя Маша, которой нужен просто интернет на планшет, выберет то, что прорекламируют. И подешевле. ИМХО, нельзя перекладывать эту проблему на покупателей. Ибо они, в большинстве своём, некомпетентны.

> Но даже самый уважаемый производитель не застрахован от багов

Но он всегда может использовать страховую компанию, чтобы застраховать ответственность. Если он это не сделает, то пусть это делает пользователь

> А тётя Маша, которой нужен просто интернет на планшет, выберет то, что прорекламируют.

Да, люди не должны быть специалистами во всём. Но, например, существует понятие «квалифицированный инвестор», и ему доступны сделки, которые простой человек осуществлять не может. По аналогии легко решается проблема «тёти Маши»: некомпетентный пользователь обязан приобрести страховку своей ответственности, квалифицированный может сам отвечать за надёжность своего софта и баловаться опен сорсом, например.

При таких раскладах совершенно не важно, что Маша не умеет выбирать роутеры, платить за косяки будет страховая. А поскольку страховым компаниям совсем не улыбается выкладывать деньги из своих карманов, как и всем нам, цена страховки для надёжных роутеров будет ниже. А роутер «подешевле» внезапно станет стоит подороже из-за страховки.
А теперь исключаем из уравнения страховую компанию и возвращаемся к исходному — пользователь платит за свою криворукость, производитель за свою. Ибо незачем кормить тролей страховщиков.
Что значит производитель платит за свою? Вот я использую бесплатный линукс, мне что ещё и доплачивать должны за косяки?

Как бы не так, вся ответственность — на мне. Если мне это не нравится, я покупаю платный продукт, и плачу не только за софт, но и за гарантии. С другой стороны никто не мешает продавать софт без гарантий, под ответственность пользователя, как это делает майкрософт.

> Ибо незачем кормить тролей страховщиков.

Ну кто-то за косяки платить будет. И если я не хочу платить, то значит я напрямую или через производителя страхую риски. А страхованием рисков занимаются страховые компании. Понятное дело, что крупный производитель может позволить себе иметь собственный банк и страховую.
Роботов еще нет (можно считать — вообще), а проблемы уже есть. Как это по человечески!
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории