
Платформа YouTube начала удалять ролики обычных пользователей, которые проводят тесты Tesla на автопилоте на небольшой скорости (12-15 км/ч). Они показывают, как Tesla с активированной системой автопилота Full Self-Driving (FSD) реагирует на детей и тормозит перед ними или объезжает их, а не сбивает. Причина удаления роликов заключается в нарушении политики безопасности в отношении детей и из-за пропаганды насилия.
На удалённых роликах дети или взрослые стоят или переходят дорогу перед машинами с активной FSD, а электромобили останавливаются, реагируют на препятствие и не причиняют пешеходам никаких повреждений.
Примечательно, что многие ролики на YouTube с тестами, якобы, включённой FSD, при которой электромобили Tesla сбивают манекенов-детей, остаются в открытом доступе без блокировок со стороны платформы.
Автор ролика под названием «действительно ли бета-версия полностью автономного вождения Tesla сбивает детей?» Тэд Парк протестировал работу FSD электромобиля на своих собственных детях. Парк на Tesla Model 3 подъезжал к одному из своих детей, стоящих на дороге, а затем повторил такую же ситуацию с ребёнком, переходящим улицу. Оба раза электромобиль останавливался, не доезжая до детей.


Другие пользователи также подтвердили, что Tesla на небольшой скорости прекрасно реагирует на пешеходов даже на узких дорожках со слепыми зонами.
Эксперты рассказали СМИ, что YouTube в данном случае удалила ролики из-за, якобы, призывов совершать подобные тесты и трюки с другими детьми, так как платформа запрещает побуждать несовершеннолетних к опасным действиям. Хотя на видео авторы не призывали это делать и использовали манекены для проверок, а не только настоящих пешеходов. Также на этих видео электромобили Tesla никого не сбивали.
«Я проверял работу бета-версии FSD раньше и в августе проверил ещё раз. Я бы доверил ей жизнь своих детей, так как система обнаруживает пешеходов как препятствие и предпринимает меры для их безопасности », — пояснил Парк. Он также уточнил, что даже при использовании FSD всегда старается контролировать ситуацию, держаться за руль и быть готовым затормозить в любое время.
В начале августа 2022 года обычные пользователи начали массово проверять, как электромобили Tesla с активированной системой FSD на небольшой скорости реагируют на неподвижных или пересекающих дорогу манекенов ростом с ребёнка. В некоторых случаях это закачивалось просто проездом машины далее с повреждением манекена. Причём даже без предупреждения водителя об инциденте. Видео с этими опасными и неудачными для манекенов тестами YouTube не заблокировала.
Пример любительского теста системы FSD на надувном манекене ребёнка, который перебегает дорогу перед Tesla, двигающейся с небольшой скоростью.
Более продвинутый тест системы FSD со сравнением, как действует в этих же условиях машина с автопилотом и лидаром. Tesla сбила манекен и проехала далее, машина с лидаром безопасно затормозила в нескольких метрах перед манекеном.
Основной посыл таких любительских тестов в том, что покупатели Tesla хотят показать разработчикам системы FSD, что она несовершенна, а компании нужно исправлять именно такие ошибки в её работе в первую очередь. В Tesla утверждают, что анализируют каждую аварию и столкновение, возникающие при работе FSD, а также дорабатывают и обучают эту систему на основе новых данных со всех машин.
В Tesla отреагировали на пожелания пользователей. В новой версии FSD 10.69. которая должна начать распространяться уже с 20 августа, будет добавлено много изменений и дополнений, включая улучшенный алгоритм обнаружения животных и пешеходов, систему ограничения скорости и улучшения в работе алгоритма городского движения. Ожидается, что Tesla FSD Beta v11 будет включать в себя слияние стека Tesla для городского и шоссейного вождения, что станет большим шагом на пути к развитию этой автономной системы вождения.
Ранее исследователи проекта Dawn Project несколько раз проверили работу системы автопилота Full Self-Driving (FSD) электромобиля Tesla Model 3 на распознавание неподвижно стоящих манекенов на дороге впереди. В итоге трёх тестов на скорости 40 км/ч три манекена-ребенка были сбиты в контролируемых условиях при испытаниях. Вот только Dawn Project не показали главные детали и настройки машины в ходе тестирования и умышленно скрыли некоторые моменты при их проведении.
Журналисты из Electrek провели своё расследование и показали, что тесты Dawn Project сделаны неправильно. Они нашли там несколько недочётов и нестыковок по разным условиям проведения тестов и пояснили, что результаты Dawn Project предвзятые и некорректные.
Tesla считает, что работа бета-версии системы помощи водителю Full Self-Driving (FSD) является полностью безопасной при выполнении всех рекомендаций компании — руки на руле и внимательно смотреть на дорожную обстановку.
После выявления в СМИ волны тестирования FSD со стороны обычных водителей, Национальное управление безопасностью движения на трассах США (NHTSA) выступило с заявлением, в котором предостерегает от использования детей для тестирования технологии автоматизированного вождения. «Никто не должен рисковать своей жизнью или жизнью кого-либо ещё, чтобы проверить работу автомобильных технологий и систем автопилота», — заявили в агентстве. «Потребители никогда не должны пытаться создавать свои собственные тестовые сценарии или использовать реальных людей, особенно детей, для проверки работы тех или иных сложных автомобильных технологий», — предостерегли в NHTSA.
В начале августа Департамент транспорта Калифорнии (DMV) обвинил Tesla в мошенничестве при маркетинге систем помощи водителю Autopilot и FSD. В худшем случае компания может лишиться лицензий на продажу своих авто в штате. Департамент подал два заявления в Управление административных слушаний Калифорнии, где указал, что «вместо того, чтобы просто обозначать названия продуктов или торговых марок, эти ярлыки Autopilot и Full Self Driving означают, что автомобили, оснащённые функциями ADAS, будут работать как автономные транспортные средства. На практике же автомобили не работали автономно во время рекламной кампании этих функций и не работают сейчас».
В июне эксперты Национального управления по безопасности дорожного движения США (National Highway Traffic Safety Administration, NHTSA) выяснили, что в большинстве зафиксированных случаев система автопилота Tesla отключается за несколько секунд до аварии. Разработчики сделали так, чтобы привлечь компанию в суде по пункту обвинения в причинении умышленного ущерба из-за работы автопилота было нельзя.