Как стать автором
Обновить

Комментарии 20

Вопрос же просто решается — Tesla получает карт-бланш на FSD, но обязуется, в случае аварии по вине FSD (т.е. Tesla въехала, а не в неё), покрывать все расходы всех пострадавших сторон плюс дополнительная компенсация в $50 млн каждому пострадавшему, без вопросов и отмазок.


Сразу станет ясно, готов на самом деле FSD или нет.

Вы ждёте нулевых ошибок от FSD. Но почему не ждёте их от людей? Точно такое же требование к людям показало бы, много ли людей готовы водить автомобили или пока нет.

От FSD достаточно десятикратного роста безопасности, они они смогут его доказать - никаких проблем. В десять раз меньше аварий лучше, чем в десять раз больше, пусть и более "человечных".

НЛО прилетело и опубликовало эту надпись здесь

Точно такое же требование к людям показало бы, много ли людей готовы водить автомобили или пока нет.

Так есть же такое требование к людям финансовое возмещение и вплоть до уголовной ответственности.

Ну 50 млн, это вопрос дискуссионный, однако в случае обычного водителя есть еще уголовная ответственность в случае FSD кого привлекать к ответственности если авария с пострадавшими или еще хуже жертвами случиться из-за бага.

Поэтому давайте организуем раздолье для автоподстав? А то никогда такого не было же. Выскажу непопулярное мнение - нужно наоборот, на "кожаный мешок" всю ответственность вешать, мол не учел самоуправляемое средство на дороге, которая снимается исключительно при применении всех средств во избежание аварии. Быстрее все пересядут на автономные.

А должна ли вообще существовать уголовная ответственность водителя при разумном соблюдении им ПДД? Мне кажется, что нет, и тогда всё действительно решается страховкой.

Нет, не жду. Как раньше уже заметили, к людям похожие требования — только их выполняют страховые компании, чётко причём выполняют — если водитель виноват, то всем всё компенсируют, в полном объём плюс моральный ущерб, даже если водитель напился, ослеп и въехал намеренно (но имел страховку).


В случае же с Tesla, "водителем" является их творение, которое, безусловно, способно совершать меньше ошибок, не повторять их (в отличие от людей), также FSD быстрее, точнее и обладает большей информацией чем любой человек за рулём, так что вполне логично возложить на творцов ответственность за его действия, или найти страховую компанию которая её возьмёт на себя.


Как минимум, FSD должно вести себя по правилам на дороге, и в случае нарушения оных это явный косяк разработчика, со всеми вытекающими.


В частности, FSD должно соблюдать знаки но не настаивать на правах (типа уступить дорогу тому кто едет на красный, несмотря на свой зелёный), принимать все меры для исключения наездов на "маленьких" (пешеходы и двухколёсные), ни в кого не въезжать, не задевать в поворотах и при парковке, и т.д., и всё это в любых условиях — с поправкой на возможности сенсоров и физику движения, разумеется.


До тех пор пока всё это не будет гарантировано — за каждый косяк пусть платят по максимуму, это будет стимул всё исправить, ибо я вот совсем не уверен как поступит FSD если поедет на зелёный а кто-то будет ехать на красный, или если кто-то не уступит хотя должен. Да даже если на дороге будет банальный кирпич (не знак — реальный кирпич) или открытый но неогороженный люк или яма — как Tesla отреагирует? Сомневаюсь что объедет или остановится.


Можно конечно заявить что-то типа "человек тоже не смог бы в этой ситуации" — но это слабая отмазка — как я уже заметил выше, человек очень медленный и не видит даже четверти от того что видит FSD.


И самое главное — все характеристики FSD (время реакции, расстояние и углы обнаружения препятствий, зависимость от погодных условий, вероятности ошибок etc) должны быть частью спецификаций (а не чёрным ящиком) — при их несоблюдении — тоже штраф.


Плюс, вся собранная статистика и телеметрия во всех аварийных и спорных случаях должна быть прозрачна и доступна (в анонимизированном и агрегированном виде как минимум, но более детально чем "одна авария на миллион километров"), дабы было ясно как продвигается дело, а то реально чёрный ящик получается — кто-то что-то делает, не говорит как и почему, но просит верить на слово.


Пусть в нынешнем состоянии FSD гораздо эффективней и более безопасно чем человек — но суровое обязательство отвечать за обещания заставит Tesla (и других вендоров тоже) сделать всё это ещё лучше гораздо быстрее чем если его не будет, причём с высокой вероятностью они будут делать всё это в песочнице перед выпуском в массы, вместо тренировок на живых людях (а именно это им и нужно сейчас), да ещё и за счёт водителей.

Но Тесла же не утверждает, что она абсолютно безопасна, она утверждает, что она безопаснее, чем среднестатистический человек. Взять на себя ответственность за все несчастные случаи - довольно странно, понятно, что ей придётся заплатить много денег за это.

В итоге будет теслагейт. Софт, который в случае аварии затирает следы что автопилот был активен)

Интересно как там у comma.ai идут дела. Одно время Хоц то и дело сверкал в новостях со своим девайсом, позиционировал как альтернативу Тесле. Правда потом собирался коронавирус "хакнуть" в прямом эфире, глядя на ДНК...

ИМХО проблема в том, что аварии при использовании FSD другие. Трезвый человек бы не въехал в фуру перегородившую дорогу. С другой стороны - если взять самую сильную аварию в которой побывал я - в меня на перекрестке (мне был знак уступите дорогу, я притормозил, никого не увидел в т.ч. и из-за погодных условий и поехал дальше) въехал гаишник двигающийся видимо с превышением скорости. Возможно робот бы увидел авто быстро приближающееся слева и прибавил бы газу. Надо смотреть статистику по тяжелым авариям.

Тесла до сих пор не видит неподвижные предметы на дороге перед собой. Загляните в руководство пользователя, там это написано прямым текстом.

Разные боковые сценарии возможно будут лет через 20, но речь-то про то, что она умеет сейчас.

Зато человек замечательно въезжал в фуру, стоящую на обочине рядом с пробкой, хорошо так, по самые средние стойки. Ну а уж на перекрёстках регулярно (место проклятое, градостроителями, наворотившими там всякого), пусть и бегать могут после этого, но зато таких больше.

в четвертом квартале 2021 года Tesla зафиксировала одну аварию на каждые 6,9 млн км использования системы FSD, тогда как, по данным NHTSA, авария происходит каждые 640 тыс. км, когда за рулем человек

Вот с этой статистикой от Теслы такой вопрос - FSD работает всегда или в особо сложных ситуациях передает управление человеку чтобы не портить статистику? Так же аварийность зависит от самого авто, как я понимаю теслы довольно хороши в плане управляемости и комфорта водителя, что тоже вносит вклад в безаварийность. Тесла могла бы предоставить статистику аварийности своих машин, управляемых человеком в случаях, если FSD мог быть включён, но цифры, наверно, не так показательны.

Насколько я знаю, оно работает всегда, так они обучают свой fleet:

Когда водитель едет сам, автопилот рулит так сказать виртуально, и если поступок водителя отличается от поступка автопилота, этот трек отправляется для анализа в теслу.

В любой ли момент водитель может передать управление FSD?
Ночью на сложном перекрестке в метель можно?

Я думаю нет конечно, если она не сможет разрулить ситуация тут же запрашивает человека.

Я говорил про то, что тесла по идеи и правда могла бы предоставить статистику, когда человек ошибся, а автопилот в shadow-режиме поступил правильно, так сказать в маркетинговых целях, чтобы показать что автопилот уже допустим в 10 раз меньше ошибается чем человек. Пока видимо это не так или у них есть другие причины.

Проблема в том, что неизвестно - правильно ли "поступил" автопилот, потому что нам неизвестны последствия этого "поступка". Запросто может быть так, что авария на момент расхождения автопилота и человека уже неизбежна, и разница лишь в том, как именно она произойдёт. Или, например, развитие ситуации зависит и от других участников движения, которые бы реагировали иначе при действиях автопилота. И как это считать - большой вопрос.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости

Истории