Как стать автором
Обновить

Комментарии 37

Компания Microsoft заявила, что у них есть подобный алгоритм, но она не даст его в распоряжение правительства.


Хорошая шутка, смешно.
Ну почему же шутка? Заявить можно что угодно.
Вторая сложность представляет собой этическую дилемму, в которой машине предстоит сделать моральный выбор. Допустим, беспилотный транспорт везёт пассажира. Навстречу выскочил человек, и единственный способ избежать столкновения — это въехать в рядом стоящий столб.

Нет никакой дилеммы. Если в инструкции к авто будет что-нибудь вроде: "в таких-то условиях автомобиль убьёт вас, а не пешехода", — никто не купит такой автомобиль. Спасать экипаж — единственная опция для робомобиля.

Перво наперво нужно понять, что речь не идет о ситуации, когда автомобиль сбивает человека на пешеходном переходе или подобной. Данные ситуации жестко описаны в алгоритмах автопилота, который заблаговременно снизит скорость и будет готов пропустить пешехода. Речь о ситуации, которая спровоцирована пешеходом — нарушителем дорожного движения.

В этом случае автомобиль (участник дорожного движения) должен попытаться спасти жизнь человека (нарушителя). НО делать это не подвергая опасности жизни пассажиров — в рамках ПДД. При описании этой дилемы никто не вспоминает, что при попытке спасти жизнь нарушителя резким маневром могут пострадать третьи лица, которые нарушителями не являлись и спокойно стояли разговаривали у столба, возможно сливаясь с ним, затрудняя распознавание.

Таким образом здесь нет дилемы и никогда не было — учите ПДД.
И не только по этому, полно причин почему дилеммы нет.
доколе будут спрашивать про этику — убивать пассажиров или пешеходов?
Я например низачто не сяду в автомобиль, который по умолчанию будет убивать меня, спасая каких-то там выскочивших из кустов незнакомцев.
К тому же ПДД в РФ по крайней мере явно пишут — «при появлении опасности впереди следует тормозить всем чем возможно, не меняя полосы движения», а значит ни про какой столб речи не должно быть.

Нет такого в ПДД РФ. Это какое-то повальное заблуждение. Правила не запрещают маневрировать.


10.1… При возникновении опасности для движения, которую водитель в состоянии обнаружить, он должен принять возможные меры к снижению скорости вплоть до остановки транспортного средства.
Я например низачто не сяду в автомобиль, который по умолчанию будет убивать меня, спасая каких-то там выскочивших из кустов незнакомцев.

Вас никто и не заставляет, собственно. Другие сядут.

Есть и другая этическая и юридическая проблема — если купленный вами робомобиль собьет человека, кого посадят? Вас? Программиста ИИ? Того, кто готовил обучающую выборку для ИИ? Руководителя IT-отдела? Директора компании-производителя? За смерть человека в результате ДТП кто-то должен нести ответственность, но кто это будет — совершенно неясно. Точнее, наиболее вероятно, суды будут считать ответственными владельцев — и юридически, и экономически это самое простое.
Вот только зачем мне такая машина, на поведение автопилота которой я повлиять не могу, но несу за это самое поведение ответственность?!?
мне кажется в первую очередь такие машины найдут себя в такси или на рейсовых маршрутах. Для себя действительно смысла покупать на начальном этапе развития автопилотов мало, хотя на «хайпе» брать будут я думаю…
Правовую базу будут подгонять. Но пока, за вред причиненный средством повышенной опасности отвечает владелец средства повышенной опасности.
пока, за вред причиненный средством повышенной опасности отвечает владелец средства повышенной опасности.

Ну хорошо, предположим, что живем в идеальном мире, победит разум, и ответственность будет нести производитель автопилота. Какую, уголовную? Не уверен, но кажется, это будет прецедент. Финансовую? Далеко не каждая контора потянет существующий поток смертей и травм в ДТП. Утверждается, что их будет на порядок меньше — даже если это правда — это всё равно гигантские риски. Сейчас все эти автопилоты цветут буйным цветом как раз по причине своей безответственности. Стоит законодательству поменяться в эту сторону — они схлопнутся.
Если робомобиль ехал на автопилоте, и в инструкции к нему не сказано «водитель должен перехватывать управление в случае чего», то владелец — это просто пассажир и ответственности нести не должен. Логично было бы если виноват в случае дтп будет производитель автомобиля. Можно переложить вину на владельца, если он не проходил положенное ТО/не ставил апдейты/или вообще модифицировал автомобиль.
А если у купленного обычного автомобиля внезапно откажут тормоза и это приведёт к смерти человека, то кто понесёт уголовную ответственность? Водитель, продавец, производитель, тестировщик?
Ответ: в общем случае, никто.
Ответ: в общем случае, никто.

Это, простите, как? Ответственность несет владелец транспортного средства повышенной опасности, если только не сумеет доказать неисправность по вине производителя. Так в законодательстве.
Нужна причинно-следственная связь между нарушением ПДД водителем и смертью.
Если из-за неисправности водитель не мог избежать ДТП — состава преступления вообще нет.
В случае с ИИ, нет нарушения и нет возможности избежать.
Нужна причинно-следственная связь между нарушением ПДД водителем и смертью.
Если из-за неисправности водитель не мог избежать ДТП — состава преступления вообще нет.

Это решает суд на основании текущего законодательства. Касательно нашего случая с заводской неисправностью ничего не меняется — не сумел доказать -> сел.
В случае с ИИ, нет нарушения и нет возможности избежать.

Не надо идеализировать ИИ. Недавние аварии с тараном автобуса гугломобилем и сбиванием велосипедистки убермобилем показывают, что это ложное утверждение.
Кто чего доказывает, это юридические нюансы процесса. Суд пытается установить факт причинно-следственной связи.
Я не идеализирую ИИ, но водитель/пассажир точно ничего не нарушал, просто потому что не управлял.
А создатели сломанных тормозов не будут нести уголовную ответственность.
Никого ведь не посадят, если кто-то бросится под, например, поезд.
Это всё уже проработано, можно сказать, веками.

Здесь тоже должно быть аналогично.
1 — всем рассказать, ЧТО это такое, и как оно относится к тому, что вы под него прыгаете (тупо тормозит в соответствии с ПДД)
2 — не понявших увозить по факту в больничку.
по хорошему такую машину должен освятить священник, и тогда она станет святой и не сможет ни кого убить. Но если это случится, значит священник обманул — его и садить!
НЛО прилетело и опубликовало эту надпись здесь

Мне кажеться автор вылез из 70-х. Мыслит реально очень устаревше и предлагает немасштабируемые решения. Одна рекомендация автору не писать о том что не понимаешь. Глупо выглядит.

Да уж, научного знания в статье примерно ноль.
совмещенный с полным игнорированием того факта, что за те миллионы километров, которые уже наездили по дорогам общего пользования беспилотные автомобили под управлением ИИ они убили как минимум на пару порядков меньше людей, чем кожаные мешки с мясом за то же время и километраж.


После того случая с убером, власти Аризоны запретили проводить испытания робомобилей на территории округа.
А те робомобили, что сейчас катаются самостоятельно — перемещаются исключительно в границах заранее заданной полосы или пешеходных зонах. И по скорости это не быстрее подвыпившего шлёндры. На трассах общего пользования сейчас используют только полуавтоматические машины, которые могут поддерживать полосу движения, отслеживая дорожную разметку и определять расстояние между ТС.
Нынешние беспилотники слишком зависимы от состояние покрытия, разметки, хорошего освещения, тумана, снега, мусора и прочей ерунды. Соответственно катаются в тестовом режиме, с кожаными ублюдками внутри, поскольку самостоятельно обеспечивать необходимый уровень безопасности не могут. Так, простите, о каких миллионах километрах Вы говорите?
Почему не написать правду? Автопилот убера переехал бомжиху, которая неожиданно начала перебегать неосвещенный выход на шоссе, в неположенном месте?
Автопилот не видит никакой разницы между бомжихой и балериной. Зачем уточнять социальный статус — в ПДД нет исключений для людей БОМЖ и «неположенные места» там по-прежнему дают водителю лишь смягчающие обстоятельства.
Сколько упоминают эти дилеммы про пешеходов и машин с отказавшими тормозами, нико ещё не объяснил толком, почему решение робоавтомобиля — каким бы оно ни было! — хуже решения человека-водителя оказавшегося в той же ситуации и подвергается морально-этической критике. Причем человек-водитель скорее всего будет действовать не по логике «если я поступлю вот так то это минимизирует нанесенный ущерб не подвергая пассажиров риску», а по логике «АААА Б****Я П*****Ц!!!!» с судорожной попыткой вырулить хоть куда-то.
Лично мне было бы как-то плевать, сбила меня машина под управлением водителя или ИИ. Я бы не чувствовал облегчения от того что за рулем все-таки был человек.
Когда у автопилота будет система распознавания лиц и база по всем жителям Земли — можно будет считать социальную, культурную, научную, семейную значимость каждого человека, который перебегает дорогу. )))

Википедия пишет, что Элиза была написана в 1966. Т.е., это 60-е, а не 70-е, как написано в статье.

Вообще-то, по правилам языка (и математики) 00-09 — это десятые, 10-19 — двадцатые и так далее… Другое дело, что прагматика современного языка допускает делать такую ошибку… )))
Я в правилах не силён, поэтому не опровергаю, но удивляюсь. Десятые — это даже не от 1 до 10? А где можно посмотреть? А «минус десятые» — они таки от -1 до -10?
А можно ссылку на такие правила языка и математики?
Википедия говорит, что есть два варианта счёта десятилетий, но ни один из них не соответствует тому, что пишете вы.
Я пример приведу, а дальше вы сами в гугле.
5.14 — это шестой час или пятый?
Вы путаете тёплое с мягким.
1966 год — это действительно седьмое десятилетие. Но при этом период называется всё равно «шестидесятые». Потому что «шестидесятые» — это вовсе не от словосочетания «шестое десятилетие», а собирательное название для 1960-го, 1961-го, ..., 1969-го.
И да, по мне тоже правильно начинать с 1960-го, а не с 1961-го. Сначала я считал это ошибочным, т.к. нулевого года не было, и «вчера» для 01 янв 1-го года н.э. было 31 дек 1-го года до н.э. — поэтому самые первые «нулевые» не имели другой возможности, кроме как начинаться с 1-го года, и заканчиваться 10-м годом, и дальше в периоде. Но потом я понял, что тогда у нас всё время последний год "… сятых" будет заканчиваться годом, дающим название следующим "… сятым", что будет приводить к смысловым недопониманиям, и требует принесения математики в жертву.

Спасибо за пост!
Исследователю ии важно видеть направления поиска. Это как нерешенные задачи математики.

В качестве обучающей выборки в неё было заложено шесть тысяч историй болезней. Это титанический труд и, безусловно, огромные деньги.

Можно сделать за 0.5-1 человеко-год, если область знаний для аналитика незнакомая. Если что, обращайтесь. Я имею ввиду перевод Данные -> понятные человеку и компу правила.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории