Comments 66
Кто решит в рамках военной программы создавался робот или в частном порядке?
> отключение программных и аппаратных функций, блокирующих возможность причинения вреда человеку;
Это единственная разумное предложение, что если в аппарате ЕСТЬ такие функции, то отключать их нельзя.
> конструирование робота, способного причинить вред человеку;
ЛЮБОЕ устройство способно причинить вред человеку. Вообще любое.
> конструирование робота без осознания того, что он может быть использован для причинения вреда человеку.
Можно всех инженеров, которые создавали любое устройство сразу в тюрьму.
Я не понимаю формулировку этих предложений, особенно в реалиях судебной системы, их можно трактовать как угодно.
>ЛЮБОЕ устройство способно причинить вред человеку. Вообще любое.
Вот именно поэтому закон и примут.
Точно так же преступления, совершённые с помощью роботов, должны иметь классификацию, которую автор закона и предложил исходя из норм текущего уголовного кодекса. Вполне адекватную классификацию, надо признать.
Ключевым моментом должно быть определение, что такое робот, и кто несёт за него ответственность. Вопрос в том, есть ли необходимость такого определения. Есть ли смысл вообще вносить в законодательство такое понятие, какие вопросы и какие случаи такой закон может описывать принципиально иначе, чем нынешний?
Мне поставили пломбу. Но при этом мне сверлили зуб. Это вред, нанесенный автоматом.
Кому-то делали коррекцию зрения, при этом операция прошла неудачно. Виноват будет не доктор, а тот, кто конструировал лазер?
Классификация совершенно неадекватна, поскольку она перекладывает вину с непосредственно исполнителя, на того, кто создавал любое устройство, которое злоумышленник можно использовать во вред.
В УК уже и так есть статьи на случай «собрал робота убить тёщу».
Теперь этот умник предлагает посадить меня сразу, за то, что я хочу собрать робота-охранника для моей квартиры?
Или аффтар проекта хочет, чтобы таких «зловредных» роботов можно было производить то лицензированным(тм)(с) предприятиям вроде mail.ru?
Горели конопляные поля."(с)народное творчество
Если робот будет иметь ИИ и обучен понятию «вред человеку» то ответственность брать именно с робота. Не с человека
ответственность брать именно с робота
Можно уточнить, что Вы под этим имеете в виду?
Да-да, кажется бредом, но имхо, так и должно быть
Допустим, ему не повезло, его нашли. Его посадили. Компания продолжает работать, и нанимает нового директора. При этом все финансовые стимулы остаются какими были — новому директору тоже выгодно совершить убийство если что, потому что деньги нереально большие на это замешаны.
При этом выгодополучатели, инвесторы, в любом случае деньги получат и вроде как не при чём. «Я хочу результат, как ты его получишь — твоя проблема. Если сможешь — тебя ждут бонусы».
Так вот, бизнес может создавать такие же мотивы, фактически являясь супер-зазазчиком. Посадите одного директора на его место придёт другой, и будет оптимизировать прибыль таким же способом. А убитых людей уже не вернуть.
В принципе эта схема работала, если бы удавалось раскрыть каждое преступление и наказать всех виновных. Но на практике у бизнеса есть и рычаги влияния, и множество ресурсов, чтобы скрывать свои преступления и уходить от наказания. Хорошо, если одного из четырёх убийц поймаете.
А это значит, что преступный путь по-прежнему будет сладок для персонала, хоть и рискован. Чтобы прекратились преступления надо как-то наказывать сам бизнес, но как?
А как бизнес может быть виноватым — я так и не понимаю. Компания не может сама по себе принять решение убить человека — это делает руководство. У бизнесменов есть мотивы и средства совершать преступления, но это не значит, что это проблема бизнеса — это проблема людей, им занимающихся.
Единственные наказания возможны только разборка и уничтожение сознания робота
Но ведь можно логически заключить, что ИИ должен обладать чувствами, и он должен «бояться» своей смерти в виде разборки и уничтожения.
Любой ИИ — это программа, созданная и настроенная для решения определенных задач. Если эти задачи требуют наличия чувств (искусство, например), то разумеется, без них конкретный ИИ не обойдется.
И то, пример с искусством кажется мне каким-то натянутым. Может, Вы подскажете более подходящую задачу, для которой нужен ИИ с чувствами?
В подавляющем же большинстве случаев, чувства (которые по определению субъективны и нерациональны) искусственному интеллекту будут только мешать выполнять свои задачи.
Я бы, например, не хотел, чтобы мой робомобиль повез меня на море вместо работы, потому что ему захотелось на пляж. Зато я хочу, чтобы робомобиль повез меня в больницу если объективно обнаружит, что я без сознания и не дышу. Или чтобы ромобобиль сам съездил на ТО потому, что пришло время, а не потому, что хочет провести время с симпатичным робомехаником.
Возможно, я что-то упускаю, не укажете на неточность?
Любой ИИ — это программа, созданная и настроенная для решения определенных задач
Позвольте, но ИИ, это все-таки Искусственный Интеллект, а не программа. Да, он работает по программам и алгоритмам, но он может от них отступать и модифицировать их, потому что это все таки интеллект. А интеллект, даже искусственный, вполне может и должен развиваться с чувствами, осознанием своих действий, иначе мы опять возвращаемся к программе, едущей по своим рельсам в соответствии с алгоритмом.
И ваш пример с робомобилем не совсем корректен, т.к. ваши желания о самостоятельном ТО и экстренной доставки вашего тела в больницу, не более чем функции автопилота-программы.
И если задуматься, если робомобиль обладает интеллектом, и понимает, что если он отвезет вас на море вместо работы, то вас уволят, лишат зарплаты, то есть он понимает, что таким образом он нанесёт вам вред, то будет ли ИИ, настроенный на цель «не причинять вред человеку», так делать, даже путем реализации своих желаний? Он же может понять, что в таком случае вы робомобиль разобьете/разберете/сожжете/аннигилируете?
Я под ИИ понимаю программы (или, точнее, программно-аппаратные комплексы), способные рассуждать и тем самым синтезировать качественно новые знания.
А говоря «чувства» я имею в виду позитивное или негативное отношение личности к тому или иному предмету или явлению, не связанное с рациональным мышлением.
Так же, как и синтез знаний, мы не хотим, нам это неинтересно, какие новые знания мы получим? Скажем так, знания будут не очень. А если интересно, это завораживает, то и знания мы приобретаем намного более «качественные» и «сильные». Этим интеллект и отличается от просто «умной машины»
мы не хотим, нам это неинтересно, какие новые знания мы получим?Из-за того, что человеку что-то интересно, а что-то — нет, продуктивность получения новых знаний может снизиться вплоть до отрицательных величин — ученый может развивать интересную ему гипотезу вместо неинтересной, но верной.
Но скажите все же, что Вы понимаете под ИИ?
Предлагаю срочно разработать дизайн водительских прав для робоавтомобилей, насущнейшая же проблема. И срочно вынести его на обсуждение ГосДумы.
Или вот реестр по типу ЕГРЮЛ для роботов. Как туда попасть? А акцизные марки на роботов будут клеить? Роботы-пылесосы подпадают под эти требования? Кто бабосики будет собирать за регистрацию?
А сейчас это просто костыль с непонятными утверждениями вроде «нет эмоций — не может быть субъектом права».
Чтобы что-то закрепить, нужно что-то иметь.
Какие ваши определения?
Применению оружия всегда соответствуют правила(у нас с вс они прописаны в УВС ст.13) и использование роботов в целях военных должно быть равноценно применению любых других видов вооружений. Ответственного в этом случае найти легко — накосячил оператор — виноват он; виноват командир, давший приказ на использование — виноват он; пошла неполадка в системе — виноват инженер, причем расследование выявит ответственного за нужный узел или программный компонент. Если вопрос идет об автономных машинах — все-равно есть человек вводивший инструкции, а так-же лицо ответственное за разработку этих инструкций. Все работает на практике и давно.
Кто виноват, если отвалится колесо у самолета и упадет на человека? Найдут. А если бомба случайно вывалится из бомбардировщика? Найдут. Если гражданский завладел вооружением и использовал. Виноватых найдут всегда. Ибо отчетность и ответственные везде прописаны. А париться на том, что робот — самостоятельная единица и сама решает, что хочет — пускай. Модно же
К примеру, тот же автомобиль Geohot'а можно легко натренировать загонять всех встречных кошек на деревья.

Что это, страх что ктото сделает робота который убьет их всех, сами знаете кого, либо просто попытка признать бесовщиной все то, в чем уже безнадежно отстали непонятно…
Вот буквально вчера посмотрел несколько серий из мультсериала "Star Wars" и там таких вопросов совсем не стоит. Очень часто звучит "убить их", и роботы тут же принимаются выполнять команду. Так что в этой истории мне больше всего понравилось упоминание Азимова. Может это сподвигнет кого-нибудь перечитать/прочитать впервые его произведения вместо просмотра всякой белиберды в мозг.
Допустим инженеры разработали роботы автомобили, причём такие, что вероятность попасть в ДТП на таком автомобиле в 100 раз ниже, чем на обычном. Допустим всё человечество ездит на таких. Тогда чило жертв в ДТП снизилось с 1,2 млн. в год до 12 000 в год. Что тогда? Вешать эти 12 000 смертей на инженеров и посадить их?
Так что все риски — на владельце робота. Если он их боится, то станут хорошо продаваться гарантии производителя, которые будут идти вместе с лицензионным соглашением. В общем, всё как в авто. Владелец отвечает. Ну или пользуется услугами страховой фирмы.
Чтобы он начал выбирать безопасный софт с хорошей репутацией. Знаете, как мне надоело каждый месяц читать офигительные истории про бекдоры и глупости домашних роутеров? Почему-то решили, что человек не отвечает за своё имущество, вот и развелось погани. Отвечал бы — покупали бы только надёжные роутеры. А если бы покупали только надёжные роутеры, то и продавать начали бы только их.
Вот у тебя сломались тормоза на автомобиле и ты раздавил старушку на остановке? Кто будет отвечать? Ну а кто ещё кроме тебя? Впрочем, специально для того, чтобы не продавали автомобили без тормозов есть регулярный техосмотр, как способ понизить риски.
Насчёт роутеров — я написал, что пример утрированный. Но даже самый уважаемый производитель не застрахован от багов. Не бекдоров, нет. Но глюки бывают.
Теперь по машинам. Конечно, если ты вовремя не прошёл ТО и не заменил износившиеся тормоза (читай — не следовал инструкции), то ты и виноват в ДТП. Но если проблема в, условно, заводском браке, то ответственность должна быть на производителе.
Кстати, насчёт выбора качественного. Человек не должен, да и не может разбираться во всём. Вот мы тут знаем, какие роутеры хорошие, а каких надо избегать. А тётя Маша, которой нужен просто интернет на планшет, выберет то, что прорекламируют. И подешевле. ИМХО, нельзя перекладывать эту проблему на покупателей. Ибо они, в большинстве своём, некомпетентны.
Но он всегда может использовать страховую компанию, чтобы застраховать ответственность. Если он это не сделает, то пусть это делает пользователь
> А тётя Маша, которой нужен просто интернет на планшет, выберет то, что прорекламируют.
Да, люди не должны быть специалистами во всём. Но, например, существует понятие «квалифицированный инвестор», и ему доступны сделки, которые простой человек осуществлять не может. По аналогии легко решается проблема «тёти Маши»: некомпетентный пользователь обязан приобрести страховку своей ответственности, квалифицированный может сам отвечать за надёжность своего софта и баловаться опен сорсом, например.
При таких раскладах совершенно не важно, что Маша не умеет выбирать роутеры, платить за косяки будет страховая. А поскольку страховым компаниям совсем не улыбается выкладывать деньги из своих карманов, как и всем нам, цена страховки для надёжных роутеров будет ниже. А роутер «подешевле» внезапно станет стоит подороже из-за страховки.
Как бы не так, вся ответственность — на мне. Если мне это не нравится, я покупаю платный продукт, и плачу не только за софт, но и за гарантии. С другой стороны никто не мешает продавать софт без гарантий, под ответственность пользователя, как это делает майкрософт.
> Ибо незачем кормить тролей страховщиков.
Ну кто-то за косяки платить будет. И если я не хочу платить, то значит я напрямую или через производителя страхую риски. А страхованием рисков занимаются страховые компании. Понятное дело, что крупный производитель может позволить себе иметь собственный банк и страховую.
Сооснователь Mail.ru Group Дмитрий Гришин разработал концепцию закона о правовом статусе роботов