
Чтобы автопилот работал хорошо, нужен… человек
Беспилотный автомобиль Waymo заблокировал движение на улице. Но серьёзность последствий — в пробке застрял кортеж кандидата в президенты США Камалы Харрис — заставляет очередной раз задуматься, насколько мы близки к управлению автомобилем ИИ?
Подсчёт аварийности беспилотных авто затруднён из-за их относительной малочисленности, недоступности им большинства районов движения. Илон Маск заявлял, что в режиме автопилота Tesla безопаснее на пройденную милю, чем с человеком за рулём. А Национальное управление безопасности дорожного движения США утверждает обратное, насчитав почти втрое больше ДТП. Но сам факт аварии во время управления с автопилотом не означает, что виноват ИИ. В Tesla автопилот до сих пор требует сопровождения водителя. Но даже разбор поездок «беспилотников» привёл автора ArsTechnica к выводу, что пока просто не набрана статистика, авария аварии — рознь.
В условиях неопределённости эффективности беспилотников хочется избежать случаев, которые легко решил бы человек, типа блокировки кортежа Харрис. Где-то виноваты локальные сбои, где-то особенности обучения моделей ИИ, который может не разобраться — где настоящая разметка. В итоге для ситуации, когда в городе немного автомобилей, напрашивается система постоянного контроля беспилотников, чтобы можно было перехватить управление. Или выслать человека на место, чтобы он отогнал автомобиль, который «глючит», или наоборот слишком придерживается правил, блокируя движение.