Pull to refresh

Comments 55

> Возможно, программе сначала нужно будет сдать стандартный тест на получение прав.
> В России это теоретический и практический экзамены с ездой по городу.
Учитывая, что в России билеты меняются крайне редко и даже набор иллюстраций там весьма ограничен, для компьютера этот тест — на пару секунд :)
С автодромом тоже, думаю, автопилот справится без проблем. А вот попадание на улицы с типично русскими «водилами» любой ИИ в ступор введёт…

Впрочем, в России до авто с водителями-компьютерами ещё не скоро дело дойдёт…
UFO just landed and posted this here
UFO just landed and posted this here
А кто будет отвечать на смертельные несчастные случаи? Программист, админ или непосредственно железка?
Судя по решениям судов в США может и непосредственно железка :)
Смерть под прессом или пожизненное заключение на свалке :)

Но вообще-то наказывать должны ИИ, то есть программу.
Удалять по файлу за каждое ДТП
Дописывать десяток новых класов и сотни юнит-тестов за каждое ДТП.
Я считаю, что так и будет. ДТП по вине ИИ может быть в случаях, которые не учли при разработке, а значит будут и новые классы, и юнит-тесты, которые проверяют подобные случаи.
То есть, наказывать будут все-таки программистов
Наказывать будут вероятно так же как в случае если самолет/ракета разбились из-за ошибки в автопилоте: комиссия, определение виновным, в случае халатности программистов — накажут программистов, халатности техников — техников, владельца (он сознательно изменил настройки автопилота) — водителя и т.д.
Вообщем, есть такая городская легенда, что водитель состава метро нужен только для того чтоб было кого наказывать. Хотя сами составы метро и их движенние, открытие/закрытие дверей, обьявление остановки — ето полностью автоматизированый процесс.
Возможно появится специальный человек (должность) который будет отвечать за ДТП вместо програмистов.
Прям прошлый век, почему сразу не голограммы?
Нужно не наказывать, нужно предотвращать.

Наказнаие — всего лишь частный способ попытки предотвращения повторения
Могут же лишить прав например. Тогда все машины под управлением этой версии ПО лишатся права управлять автомобилями и нужно будет доробатывать ИИ, сдавать тесты. Все как у людей.
Это зависит от законодательства. Если присутствие «человеческих» органов управления и наличие самого водителя (мясного) будет обязательно, то отвечает водитель, находившийся в машине на момент ДТП.

Если на законодательном уровне будет определено полная автономность системы беспилотного управления, то явно ответственность ляжет на компанию-разработчика. Вижу это так.
Не учтен еще тот факт, что автомобиль управляемым ИИ может взломать какой-нибудь хакер (например из террорестических побуждений) и спровоцировать аварию. Что, на мой взгляд, несколько уменьшает вину ПО.
ИИ должен отказаться выполнять требования хакера.
А если хакер прикинется сотрудником гугл? Так же если требуется именно совершить аварию с участием ИИ можно не взламывать, а попытаться обмануть датчики с помощью которых ориентируется автомобиль.
В описанных случаях есть конкретный виновник. Хакер или человек, который обманывает датчики автомобиля. Их и надо наказывать. А гугл можно обвинять разве что в том, что не учёл какие-нибудь из возможных случаев.
Я собственно об этом и написал. Как я считаю систем которые не ошибаются или нельзя обмануть или ввести в заблуждения построить невозможно (можно правда поступать как с шифрованием, что бы затраты на такой обман превышали потенциальную выгоду) и учесть все «из возможных случаев» не так просто. При этом в данном случае все таки речь идет не об утечке каких нибудь персональных данных или потере денег на счете (это конечно очень неприятно, но в целом обычно не фатально), а о человечческой жизни (о жизни пешеходов, пассажиров), а также о порче имущества.
Это невозможно. Для этого нужно изменить оценочные критерии, установленные при производстве робота, а так же полученные им, в процессе обучения. Это же не база данных, а база знаний…
Это было бы огромной глупостью — обеспечивать возможность доступа к управлению автомобилем удалённо. Само управление агрегатами должно быть полностью автономно и не выходить в сеть. Связь с гуглом только для обменом служебных сообщений, получение новостей, погоды и фоток в инстаграмм.
«Интернет вещей» — это хорошо, но к этому нужно подходить адекватно ;)
Вы верите что их сделают автономными? Я не очень.
Вполне можно сделать так, чтобы команды были вида «Приезжай по координатам X, Y», а как именно, пусть решает ИИ. Если можно безопасно выполнить команду, делает, иначе отказывается.
Почему же — ситуация в принципе не отличается от случая, когда за рулем человек. Хакер может точно так же «взломать» водителя человека — от «переставить знаки» до «приставить пистолет к виску». То есть конечно, ИИ должен иметь адекватную защиту от взлома, вопрос только в степени адекватности. Точно так же как в случае, если водитель объехал шлагбаум перед переездом потому что на шлагбауме висела табличка «шлагбаум поломан, объедьте» — кто виноват в данном случае?
Страховая компания.

Хочешь выкатить беспилотник на улицу — будь добр внести залог в несколько лямов на счёт страховой компании. И найди сначала страховую компанию, которая согласится твой беспилотник страховать.

update: я изложил ситуацию такой какой мне хотелось бы её видеть. Мне хочется верить, что любовь к деньгам дисциплинирует корпорации и страховые компании.
Тут замкнутый круг: пока нет беспилотников на дорогах — нет статистики, а значит нет страховых компаний. Как только статистика появится — страховщики сразу просчитают расценки и предложат услуги.
На мой взгляд слегка не так:

1) Пока нет беспилотников на дорогах — нет статистики, а значит страховых компаний берущихся за таке дело крайне мало и расценки очень большие тк риски трудно спрогнозировать поэтому их будут покрывать завышеной ставкой.
2) Как только статистика появится — страховщики сразу просчитают расценки и предложат услуги по расчетной цене чтобы расширить рынок.
3) Как только страховщиков станет много, предложат услуги по более приемлемой цене чтобы выдержать конкуренцию.
UFO just landed and posted this here
Возможно, именно здесь перейдут от наказательной системы к исправительно-ограничительной. Наказывать ИИ традиционными средствами бесполезно, поэтому будут выдвигать требования к производителю по исправлению, а если это невозможно или не получается в течении длительного времени — этот вариант ИИ запрещается. Может, потом и на людей распространят практику: не сразу тюрьма, а сначала попытка скорректировать работу его нейросети (+организма в некоторых случаях).
Автопилоты на самолетах и ракетах существуют давно, так же давно существует практика расследований и определения конкретного виновного. Не вижу причин почему практика для машин будет другой.
UFO just landed and posted this here
Возможно, сообщит в дорожные службы, а они уже будут решать что делать со знаком и сломанным светофором? Ну и настучит на ребят, которые едут 120.
Потому сложность поведения авиационного автопилота и сложность автомобильного просто несравнимы.

Вопрос не о сложности, вопрос о том как найти того кто будет виноват.

Потом в воздухе тоже могут возникать сложные ситуации — стаи птиц, запуск воздушных шаров или дронов, ошибка диспетчера, плохие погодные условия, глюки с приборами или двигателями, хулиганы светящие лазером/прожекторов и т.п., чуть ли не треть всех катастроф происходят из-за ошибок пилотов, что подсказывает что не все так просто.
Подскажите где купить лазер, который может помешать летящему пассажирскому самолету?
А вы у тех мальчишек что слепят пилотов заходящих на посадку самолетов спросите . Может быть, конечно, фейк, но сомневаюсь, самолеты при посадке проходят в нескольких сотен метров над крышами домов.

В Госдуму внесен законопроект, который устанавливает уголовную ответственность за хулиганские действия, угрожающие безопасности транспортных средств и их пассажиров. Речь идет, в том числе, и об использовании лазерных указов против пилотов.

В последнее время в СМИ все чаще говорят об инцидентах, когда неизвестные пытались ослепить с помощью лазерных указок» пилотов самолетов, которые заходили на посадку, напоминает НТВ.
UFO just landed and posted this here
В воздухе нет пробок, ну разве только возле аэропортов.
Автомобиль — средство повышенной опасности.
Насколько я понимаю по нынешним законам в таких случаях отвечать должен владелец средства повышенной опасности (даже если его вообще в машине не было).
Ну и как выше отметили, наверняка активно будут участвовать страховые компании. Возможно законодательно сделают обязательное страхование для беспилотных автомобилей.
UFO just landed and posted this here
Ну вот возьмем например, трубу отопления. Если её прорвало, вытек кипяток и кого-то ошпарил, то компенсировать должен владелец теплосети, вне зависимости была ли его непосредственная вина в том что трубу прорвало. Поэтому владельцы теплосетей как правило страхуются и в случае аварий выплачивают компенсацию из страховки. Им при этом никто не предъявляет что они в чем-то виноваты, но компенсировать ущерб они обязаны. Просто потому что владеют средством повышенной опасности.
А кто будет отвечать на смертельные несчастные случаи? Программист, админ или непосредственно железка?
Полагаю процедура будет аналогичной падению военных и гражданских самолетов (которые давно имеют автопилоты) — комиссия из разных заинтересованных организаций, определение виновных (владелец/террористы/хулиганы/техники/программисты), приостановка эксплуатации или даже отзыв данной модели, наказание финансовое компании/владельца/хулигана и даже могут посадить разработчика/руководителя/инженера за «халатность, повлекшую смерть людей», если они сознательно нарушили Технику Безопасности/процедуру тестирования и разработки.
Сколько раз в год падает самолёт, и сколько раз в год случаются ДТП. Даже если применение роботов сократит их количество в 100 раз, всё равно оставшихся случаев хватит, чтобы парализовать любую комиссию объёмом работы.
Вопрос только о случаях, когда предположительно виноват робот, то есть после разбора случая в ГИБДД, используя данные видеорегистратора, остается подозрение что виноват именно автопилот, а не люди или стечение обстоятельств. Если действительно их тестировали как обещают, такие случаи должны быть раз в год в самом худшем случае.
Интересно будет почитать о всяких юридических казусах, как то: столкновение двух гугломобилей управляемых одним «Джо»; непредоставление водителем медицинской помощи пострадавшим в ДТП; «похищение и принудительное удержание в неволе» при глюке в мозгах Джо, и т.д.

Приравняли бы к системам ассистирования (как парковочные ассистенты, системы предупреждения столкновения) и ответчиком — юрлицо, на которое зарегистрирован авто. В случае с частными автопилотами — отвечает владелец.
А так — наделили правами, потом признают личностями, разрешат голосовать, и в итоге «Встречайте! Первый президент США — автопилот».
Может, оно и к лучшему. Допишут президенту пару юнит-тестов — глядишь, жизнь наладится!
https://s-media-cache-ak0.pinimg.com/236x/b9/b4/4f/b9b44f829635d154634957b1af084616.jpg
Сразу вспоминается аниме Animatrix. Походу Мы застали его начало…
Маркетологи BMW всерьёз задумались о рекламной кампании обозримого будущего.
Нынешний лозунг для стран СНГ — «С удовольствием за рулем»
Нынешний лозунг для всего мира — «Sheer Driving Pleasure» (Явное удовольствие от вождения)
Нынешний лозунг для США — «The Ultimate Driving Machine» (Абсолютно драйверская машина)
Нынешний лозунг для Канады — «The Ultimate Driving Experience» (Абсолютный драйверский опыт)

А теперь представим, что руль уберут, а водителя полностью отстранят от вождения:
СНГ — «С удовольствием без руля»
Мир — «Leave Driving Pleasure for Joe» (Оставь удовольствие от вождения для Джо)
США — «The Out-of-stock Driving Machine» (Машина, лишенная драйверских качеств)
Канада — «Missed Driving Experience» (Упущенный драйверский опыт)
Sign up to leave a comment.

Other news