Авария с участием автомобиля Tesla, июль 2021 года. Фото: Департамент общественной безопасности штата Аризона

Национальное управление безопасностью движения на трассах (NHTSA) США опубликовало результаты расследования работы функций автопилота и Full-Self Driving (FSD) Tesla. Ведомство заявляет, что автопилот и FSD связаны с сотнями аварий и десятками смертей.

В общей сложности NHTSA расследовало 956 аварий с участием Tesla, произошедших с января 2018 года по август 2023 года. В результате этих аварий погибло 43 человека, 49 получили ранения. Часть аварий произошла в тёмное время суток, при этом ПО Tesla игнорировало предупреждающие огни, конусы и освещённые знаки. Кроме того, как заявляет ведомство, расследование показало, что водители, использующие автопилот или FSD, «недостаточно вовлечены в задачу вождения», а технология Tesla «не обеспечивает адекватного удержания внимания водителей на дороге».

Как отмечает NHTSA, в 59 случаев у водителей Tesla было достаточно времени до столкновения с другим объектом, чтобы среагировать («пять или более секунд»), в 19 из этих аварий опасность была видна за 10 и более секунд до столкновения. Тем не менее, у водителей не получилось избежать ДТП.

«Аварии с отсутствием или поздними попытками уклонения со стороны водителя обнаружены во всех версиях оборудования Tesla и при любых обстоятельствах», — заявили в NHTSA. Ведомство полагает, что причина заключается в том, что функции автопилота и FSD «расслабляют» водителей, которые теряют концентрацию и не могут среагировать вовремя.

Tesla неоднократно заявляла, что работа бета-версии системы помощи водителю FSD полностью безопасна при выполнении всех рекомендаций компании: руки на руле и внимательно смотреть на дорожную обстановку. В компании уточнили, что ответственность за использование FSD остаётся за водителем, который должен всегда быть внимательным и быть готовым взять на себя управление. Но, по мнению NHTSA, даже название бренда «Автопилот» вводит в заблуждение, создавая впечатление, что водителю не нужно контролировать ситуацию. Для сравнения, другие компании используют те или иные версии понятий «помощь» (assist), «ощущение» (sense) или «команда» (team), отмечают в управлении.

NHTSA указывает также, что расследование может быть неполным из-за «пробелов» в телеметрических данных Tesla, и фактически аварий может быть намного больше. 

Технологии автопилота и FSD Tesla не первый год привлекают к себе внимание регуляторов. NHTSA несколько раз инициировало расследования в отношении компании, включая расследования случаев, когда Tesla врезались в припаркованные машины экстренных служб, а с прошлого года собственное расследование начала Генеральная прокуратура Калифорнии.

Тем временем, 13 апреля Tesla снизила стоимость подписки на сервис помощи водителю Full Self-Driving (FSD) с $199 до $99 в месяц. 8 августа компания планирует представить собственное роботакси.