В начале августа 2022 года обычные пользователи начали проверять, как электромобили Tesla с активированной системой автопилота Full Self-Driving (FSD) на небольшой скорости реагируют на неподвижных или пересекающих дорогу манекенов ростом с ребёнка. В большинстве случаев это закачивалось просто проездом машины далее. Причём даже без предупреждения водителя об инциденте.
Эксперты по безопасности даже призвали в СМИ таких энтузиастов умерить свой пыл и прекратить такие опыты, чтобы они не закончились в итоге непредвиденной ситуацией. Некоторые особо уверенные в возможностях автопилота Tesla водители даже просили поучаствовать в тестах обычных людей.
Пример любительского теста системы FSD на надувном манекене ребёнка, который перебегает дорогу перед Tesla, двигающейся с небольшой скоростью.
Более продвинутый тест системы FSD со сравнением, как действует в этих же условиях машина с автопилотом и лидаром. Tesla сбила манекен и проехала далее, машина с лидаром безопасно затормозила в нескольких метрах перед манекеном.
Основной посыл таких любительских тестов в том, что покупатели Tesla хотят показать разработчикам системы FSD, что она несовершенна, а компании нужно исправлять именно такие ошибки в её работе в первую очередь. В Tesla утверждают, что анализируют каждую аварию и столкновение, возникающие при работе FSD, а также дорабатывают и обучают эту систему на основе новых данных со всех машин.
Ранее исследователи проекта Dawn Project несколько раз проверили работу системы автопилота Full Self-Driving (FSD) электромобиля Tesla Model 3 на распознавание неподвижно стоящих манекенов на дороге впереди. В итоге трёх тестов на скорости 40 км/ч три манекена-ребенка были сбиты в контролируемых условиях при испытаниях. Вот только Dawn Project не показали главные детали и настройки машины в ходе тестирования и умышленно скрыли некоторые моменты при их проведении.
Журналисты из Electrek провели своё расследование и показали, что тесты Dawn Project сделаны неправильно. Они нашли там несколько недочётов и нестыковок по разным условиям проведения тестов и пояснили, что результаты Dawn Project предвзятые и некорректные.
Tesla считает, что работа бета-версии системы помощи водителю Full Self-Driving (FSD) является полностью безопасной при выполнении всех рекомендаций компании — руки на руле и внимательно смотреть на дорожную обстановку.
В начале августа Департамент транспорта Калифорнии (DMV) обвинил Tesla в мошенничестве при маркетинге систем помощи водителю Autopilot и Full Self Driving (FSD). В худшем случае компания может лишиться лицензий на продажу своих авто в штате. Департамент подал два заявления в Управление административных слушаний Калифорнии, где указал, что «вместо того, чтобы просто обозначать названия продуктов или торговых марок, эти ярлыки Autopilot и Full Self Driving означают, что автомобили, оснащённые функциями ADAS, будут работать как автономные транспортные средства. На практике же автомобили не работали автономно во время рекламной кампании этих функций и не работают сейчас».
В июне эксперты Национального управления по безопасности дорожного движения США (National Highway Traffic Safety Administration, NHTSA) выяснили, что в большинстве зафиксированных случаев система автопилота Tesla отключается за несколько секунд до аварии. Разработчики сделали так, чтобы привлечь компанию в суде по пункту обвинения в причинении умышленного ущерба из-за работы автопилота было нельзя.
В апреле СМИ сообщили, что Tesla в режиме Smart Summon (режим удалённого управления при помощи систем автопилота) не распознала препятствие в виде хвоста небольшого летающего средства на аэродроме (реактивного самолета бизнес-класса Cirrus SF50 Vision Jet) и позволила совершить столкновение со стоящим на стоянке небольшим самолетом без людей на борту. Причем машина продолжала некоторое время движение после столкновения и в итоге развернула самолет почти на 90 градусов.