Как стать автором
Обновить

Комментарии 60

даже если сейчас выпустить робо-автомобили на дороги и даже если они станут причиной аварий — средняя вероятность аварийности у них будет много ниже чем у среднего водителя. Но представителей власти на самом деле не волнует сколько людей гибнет, для них главное что-бы был кто-то кого можно наказать. но робота не накажешь. и только по этому им не будут давать «зелёный» свет так долго сколько смогут.
Им не будут давать зелёный свет пока способные лоббировать свои интересы автопроизводители не будут готовы выйти на рынок с такой же технологией. Пока они в роли догоняющих, им конкуренты не нужны.
Ну хоть один здравый человек. А то хипстота своими «суждениями» заполонила.
Странно, я думал хипстота должна прочитать «Атлант расправил плечи»…
есть миллион проверок которые проходят производители авто и если-бы лоббисты было насколько сильным, они бы не тратили столько сил и времени на тесты, сделали бы как в ПО — ни за что не отвечают.
К тесле нет никаких претензий и вопросов пока водитель обязан держать руль. Как только они скажут, что не нужно его держать — начнутся моральные рассуждения, комитеты и пр и пр. ибо если нет крайнего — крайний всегда чиновник который это разрешил, а это чиновникам не нужно вообще.
Спорный вопрос только у кого лучше лобби (по крайней мере в США): у Alphabet (Google) или у обычных автопроизводителей. Я, если что, не говорю сейчас что у Google лобби сильнее, просто мне (и, наверное, не мне одному) ответ на это вопрос не очевиден.
Вы искренне не видите разницы между «кого можно наказать» и «кто будет отвечать»?
и кто будет отвечать если робомашина кого-то собьет насмерть?
А кто будет отвечать, если автоматический лифт упадет в шахту?
тот, кто отвечает за обслуживание данной единицы. тот, кто не проверил его или не выявил неисправность. а если это случилось из-за того, что в одной на миллион балке оказался дефект и такое иногда случается — никто не будет.
Ну вот, никаких проблем с поиском виновных нет.
это не валидное сравнение потому, что а) в программном коде нельзя выявить ошибку, если тесты её не покрывают (если она является редким исключением) б) у программной единицы нет того, кто её обслуживает или отвечает за неё. водитель — не отвечает. программист гугля — не отвечает. нет того кто будет отвечать.
Если самолет управляемый автопилотом падает, кто отвечает?
А он падает из-за ПО? он падает по любой другой причине, кроме ПО. и не ПО его пилотирует, а пилот. его и накажу за то, что он включил автопилот когда не должен. у нас нет полностью автоматических самолетов которые бы взлетали, садились и летели. и подумайте почему их нет.
А что, автомобили попадают в аварию из за ПО? они попадают в аварию по любой другой причине, кроме ПО :).

у нас нет полностью автоматических самолетов которые бы взлетали, садились и летели

У нас нет, или просто вы не в курсе?
ну я вообще-то про роботы-авто, а не про просто авто.
>У нас нет, или просто вы не в курсе?
нет, я не в курсе. я знаю, что они могут садится в автоматическом режиме, но крайне сомневаюсь, что это реальный автоматический режим, а не полу автоматический. про полностью автоматические самолеты я не слышал.
Но крайне сомневаюсь, что это реальный автоматический режим, а не полу автоматический.

Полностью автоматический. Минимум раз в месяц в США самолет должен садиться без участия пилота, иначе отберут лицензию на самолет. Когда-то эта тема была на гиктаймс, было несколько ссылок.
У нас есть полностью автоматические ракеты вместе с космонавтами. И самолеты таки падают из-за ПО, были случаи когда военный самолет то ли падал, то ли едва сумел вернуться из-за деления на нуль.

>> а) в программном коде нельзя выявить ошибку, если тесты её не покрывают (если она является редким исключением)
Можно, есть такие вещи на генетическое тестирование, покрытие тестами.

>> б) у программной единицы нет того, кто её обслуживает или отвечает за неё
Как так нет? Есть программисты, которые её писали, есть тестеры, которые её проверяли, есть начальники, которые всем этим руководят, есть бизнес аналитики, которые должны предусмотреть разные случаи, есть команда поддержки, которая должна находить проблемы до того как они приведут к катастрофе.

Чем вообще программная единица отличается от физического устройства, ну, скажем, двигателя? Если конструкторы не предусмотрели защиту от молний или от попадания птицы в воздухозаборник кто будет виноват когда двигатель откажет?
>Можно, есть такие вещи на генетическое тестирование, покрытие тестами.
простите, но это верх самоуверенности. реальная жизнь обладает таким количеством комбинаций факторов, что её не покрыть тестами. вам на дорогу может выбежать (условно) человек в трусах из фольги.
>есть команда поддержки
а посадят их если они её не нашли?
>Чем вообще программная единица отличается от физического устройства
множеством комбинаций условий при эксплуатации. если это двигатель, то на него влиеяет несколько факторов. если это код, да ещё и нейросеть — тут миллионы комбинаций факторов(комбинаций входных данных).

вы игнорируете человеческую психологию, а я клоню к тому, что чиновники заботятся только о своем мягком месте.
Представьте, что вы человек далекий от техники и в результате аварии погиб ваш родственник. Но вам говорят, что это было редкое стечение обстоятельств, которое конечно исправят в коде. Но никого не посадят за это, ни производителя, ни программиста — никого. и таких случаев происходит 100 за год. потому, что машин сильно дофига, а юзеры-пешеходы такие идиоты. и вот вы объединяетесь с пострадавшими, берёте плакаты и идете пикетировать белый дом. и требуете вы ни чего-то там, а крови. — это и есть страшный сон любого чиновника который выдает разрешение на что-нибудь, потому, что его карьера может зависит даже от малого числа пострадавших.
если не совсем ясно я за роботов и против чиновников.
>> Есть программисты, которые её писали, есть тестеры, которые её проверяли,
Гугломобиль самообучается. Есть программисты, но не они определяют как он будет ездить. В него забили начальный минимум и выпустили на улицы обучатся. По итогу гугломобиль будет вести себя нормально в большинстве ситуаций, а как он себя поведёт, если столкнётся с ситуацией которая в чём-то не совпадает с пройденным обучением не скажет никто. Все возможные варианты протестировать невозможно. И виноватых по сути нет… По этому использование самообучающихся систем там, где от этого зависят жизни, будет полнейшей безответственностью.
даже если-бы программисты сами всё писали, хотел-бы я посмотреть на того, кто согласится писать код для машины при условии, что если кто-нибудь погибнет — мы тебя посадим :)
Все самолеты падают исключительно по причине наличия гравитации.
А если серьезно, то ошибка в ПО автопилота легко может угробить самолет.
Аварии в основном происходили как раз из того, что пилот не вовремя _выключал_ автопилот.
охотно верю. я бы уже всё, что возможно заменил на роботов.
Дефекты металлоизделий тоже проверяются металлопрокатчиками, также как и можно проверить дефекты сварки (вот вспомнил, как после обрушения одной из школ обещалось проверять сварочные швы рентгеном). Вероятность образования дефектов тоже статистическими испытаниями можно контролировать. И только если будет доказано, что образование дефекта — игра случая, никто не понесет ответственности а так кого то всегда можно будет наказать.
я это понимаю. только вот ошибки в ПО это всегда игра случая. только разница в том, что в мире материальных объектов это крайняя редкость, то в мире ПО и уж тем более нейронных сетей для анализа изображения это может быть чаще. я думаю, что если произойдет ~5 аварий за год с летальным исходом из-за таких ошибок и никого не понесёт наказание — крайним будет чиновник который это разрешил. этого они и боятся(чиновники), а на реальную польщу им плевать.
5 аварий в год с летальным исходом? Да человек который это разрешил должен тогда приз получить и премию. Сравнивая с десятками тысяч смертей в результате ДТП в год только в США 5 выглядит приблизительно как 0.
это никого не колышит. также как никого не колышит сколько людей гибнет в авиакатастрофах или в терактах в процентах от ДТП. все боятся самолетов, никто не боится машин. не логично? а логика никого не колышит тоже.
Опять занимаемся статистикой без нормирования?
Пока рабомашины с лидарами катаются фактически по одиночке и проблем нет. Одна из проблем которые решаются на данный момент — поведение лидаров в пробке где много машин роботов. Перекресные «засветки» и т.п. артефакты всю картинку ломают.
А как считают эти километры? Если взять 100 автомобилей с идентичным ПО и датчиками, каждый из которых проедет 10000 км (по разным дорогам, конечно, в разных дорожных условиях) — это в сумме будут считать, или как? Ведь с точки зрения логики — важно, насколько надёжен алгоритм и показания датчиков, а не сколько проехал конкретных экземпляр.
Датчики не вечны, а уж соединения, живущие в сложных условиях — тем более. Так что сумма пробегов не совсем корректна.
А нейронные связи Дяди Вани, гоняющего на тридцатилетней Волге на суб-космических скоростях постоянно подшофе, но по счастливой случайности не попавший в серьезное зарегистрированное ДТП ниразу в жизни не нарушает статистическую поргешность? В первую очередь тут вопрос лоббиования и недовольства текущих производителей рынка.
В защиту дяди вани скажу, что прод воздействием веществ можно научиться управлять автомобилем, или заниматься иной работой, лучше, чем многие это делают на чистую голову. Главное — держать кондицию на здравом уровне. И именно дядя ваня, как абстрактный алкоголик со стажем, умеет держать эту кондицию, знает себя в этом состоянии и не идет на поводу у синева. То ли дело хипстор, накативший пару коктейлей и почувсотсовавший себя гонщиком.
С вами не согласны медики.
Мы вроде как обсуждаем вопрос о том, как и что нужно тестировать, а не некоего дядю ваню? Аргумент «а Вася тоже двойку получил, что ты меня ругаешь» вряд ли уместно применять в возрасте старше 10 лет.
«Как тестировать», на мой взгляд, кардинально не изменилось — аккуратно и вдумчиво, помалу запускать автопилотируемые машины в общий транспортный поток и контролировать их движение, постепенно улучшая алгоритмы. А не ссылаться на «ненадёжные сенсоры» и «ну надо минимум пару миллионов километров». Скорость шагов технологий расла, растёт и будет расти. От этого не уйдешь.
Вы мой комментарий читали? Я написал о том, что нужно проверить, как будет происходить износ датчиков и соединений на больших пробегах, и как это отразиться на системе (что случится со временем со 100% беспилотных авто). Вы в ответ выдали, что на дороге можно встретить пьяного на раздолбанной машине, поэтому можно ничего не тестировать — хуже, чем он, все равно не будет. Мне казалось, что автопилот должен работать лучше хорошего водителя, а не не хуже самого плохого.
читал, разумеется. Слишком разные критерии для сравнения. Я считаю, что технология ещё сырая, но двигается в нужном направлении, и, если её внедрять массово — будет существенно лучше, чем десятки дядь вань. Просто не вижу разумных точек соприкосновения для сравнения.
Так в том-то и дело, что датчики не вечны. И если мы будем 100500 км гонять конкретный авто для тестирования, а потом признаем его пригодным — это будет как-то не очень хорошо, ибо как раз датчики уже изношены, соединения расшатаны и т.п. Любая техника стареет, а в данном случае старение опасно.
С датчиками особых проблем быть не должно. Например, датчики на современных станках с ЧПУ зачастую выдают специальный цифровой сигнал, при потере которого станок автоматически встает в ошибку. Яркий пример — кнопка аварийной остановки на станках Trumpf: внутри простой, казалось бы, кнопки установлена электронная схема, которая выдает сигналы вида «Я здесь и нормально функционирую» и «Я здась и нажата». При любом повреждении самой кнопки и/или соединения станок принимает решение об остановке. Есть еще механизм, когда для проверки работоспособности датчика используется модулированный сигнал — зачастую так работают разного рода оптические датчики. Т.е. используется что-то вроде подсветки в ИК диапазоне, смодулированной по частоте определенным образом. Как только сигнал теряется или изменяется — датчик считает ситауцию аварийной.
Так же можно реализовать и в робомобилях — любая потеря связи с датчиком признается аварийной ситуацией и автомобиль плавно останавливается.
В теории — да, такие датчики штука хорошая. Но у ЭМ явно много датчиков, которые, потенциально, могут выдать неправильные данные — ИК-сенсоры, УЗ-датчики, да просто камеры даже. Скажем, у камер может быть поцарапана линза — и из-за каких-то особенностей искаженного такой линзой изображения автомобиль может принять неверное решение. Так что возраст всё-таки, имхо, играет свою роль.
Как как — взяли количество аварий, поделили на количество автомобилей умноженное на пробег, и получили одну аварию на миллиард километров.
Хотя удивлен — многие водители ездят без смертельных случаев десятилетиями, но регулярно, раз в несколько лет (примерно раз в 100ткм) попадают в мелкие аварии, часто не по своей вине — то в зад вьехали, то в дверь.
Наверное считали именно по смертельным случаям: миллиард километров — это один смертельный случай на тысячу водителей по 50 лет стажа каждый (по 20ткм/год).
Т.е. из тысячи водил за 50 лет вождения только один допускает смертельный случай (не важно по чьей вине, может камаз в него вьехал). Наезды с травмами наверняка на несколько порядков более часты.
На минуточку — это вероятность быть сбитым машиной 1/(50000*365)=0,00000005, или 0,000005% на каждую машину. Т.е. чтобы гарантированно быть сбитым нужно встретить за день 20 миллионов машин. Или на каждые 20 миллионов машин в день приходится одна смерть, тысяча травм и десятки тысяч аварий без последствий для человека (но не машины).
чтобы гарантированно быть сбитым нужно встретить за день 20 миллионов машин

Нет, это рассчитывается не так.
Ну тогда и права надо выдавать только когда человек проехал сотни миллионов километров с инструктором. Кто знает насколько каждый человек-водитель «надежен», может быть он в элементарной ситуации потеряется?

По идее, для автономных автомобилей нужно разработать «экзамены» когда им сознательно создаются максимально сложные дорожные ситуации и смотреть какой процент ошибок будет по сравнению с человеком.
А толку в этом проценте ошибок по сравнению со средним человеком? На дороги выпускают таких не средних человеков, что любой глупый автомат по сравнению с ними — мастер вождения.
Нужно быть проще: если человека допускают к вождению, когда он усваивает ПДД и демонстрирует способность проехать простейший маршрут, то и к роботам следует применить тот же подход: убедится, что они знают ПДД, соблюдают их (как минимум способны разглядеть знаки — авто без камер и машинного зрения сразу идут лесом), способны проехать любой произвольно выбранный инструктором маршрут. Ну еще и убедится, что они способны хотя бы на минимальную классификацию целей: человек, транспорт — чтоб не подавили людей на переходе, или тех кто без перехода поперся.
Машины без камер, с различного вида радарными системами, могут ехать только в потоке, т.е. ориентируются на поведение соседних. Но в одиночку они полностью беспомощны — они не видят светофор, не видят знаки, не видят людей. Они 100% опасны. Они могут быть выпущены на дороги, но только в составе колонн со зрячим лидером во главе. Ну или как у нас — на закрытые рободороги, где никаких людей вообще не предполагается, а ежели выскочат — на свой страх и риск, машины их не видят и размажут на полном ходу.
Человек за рулем сам отвечает за последствия своих действий (в доступных ему пределах). За действия автопилота отвечает его производитель. Думаю, поэтому и производители очень даже заинтересованы в максимально возможном тестировании.
"… вызваны человеческими ошибками, превышением скорости, а также вождением в нетрезвом виде и при рассеянии внимания (усталости). Автономные транспортные средства исключают все эти ошибки."

Вот так если с интонацией сказать, то на начало фантастического фильма похоже…

Интересно, как поведет себя автопилот при реально нестандартных ситуациях, например:
1) Излом рычага подвески на низкой скорости (заметит ли машина изменение в развала-схождения, если заметит, просто ли встанет посреди дороги или доползет до обочины?
2) Незначительное столкновение, царапина, мелкая авария, что будет делать автомобиль?
3) Пробой колеса, излом рычага подвески, заклинившее одно колесо и другое на высокой скорости. Просто ли отключится управление, или перейдет в «аварийный космический» режим управления и всеми возможностями будет удерживать вертящийся по дороге автомобиль на своей полосе
4) Резкое изменение сцепных свойств покрытия, занос задней оси, снос передней.
5) Отказ тормоза с одной стороны (при торможении машину кинет в сторону)

Когда машину уже начнут уничтожать на дороге? Очень интересна реакция!
Во всех случаях скорее всего ответ один: максимально быстрое снижение скорости до минимума с сохранением положения автомобиля на дороге, съезд на обочину, включение аварийки, сообщение в аварийную службу.
В любом случае это всё можно прописать в алгоритмы.
Тогда, при распространении таких автомобилей, например, в такси, любимым делом таксистов будет подойти пнуть тачку и тем самым выбить ее из работы часа на два =)
И получить штраф за повреждение имущества и простой транспорта, как только авто отправит видео со своих камер…
А зачем?
Зачем уничтожать на дороге-то? Можно и просто в виртуальной реальности моделировать такие ситуации. На самом деле, сценариев много, по-хорошему необходима отдельная организация разрабатывающая хитрые ситуации, в которых есть шанс что робот потеряется, а потом их прогонять виртуально или реально. Что-то вроде экзамена на права для людей только значительно более сложного.
Всё, кроме второго пункта уже давно делает ESP.
Это ведь самые очевидные тест кейсы.

Их, как и многое другое, и так с большой долей вероятности прогоняют на мат.моделях на тестовых стендах под обобщённым названием HiL (Hardware-in-the-Loop) — и перед тем, как выпустить авто в первые поездки, и уже во время езды параллельно и независимо от авто в рамках процессов разработки.

Так делают и американцы, и немцы, и французы, и шведы, и японцы.

Подробнее: en.wikipedia.org/wiki/Hardware-in-the-loop_simulation
Автономные транспортные средства должны проехать сотни миллионов километров, а иногда и сотни миллиардов, чтобы продемонстрировать свою надежность с точки зрения смертности и травматизма.

Вот интересно увидить откуда такие разные цыфры беруться? Или это для эффектности пририсовали ноликов? Ведь любой школьник может посчитать и получить в ответе от 100 до десятков тысяч лет, и сделает вывод что доклад — абсолютное фуфло.
а затраты на медицинскую помощь составляют 80 миллиардов долларов ежегодно

80 миллиардов в день, серьезно?
Не могу не отметить — классный комментарий.
Пересадить сразу на автопилотные авто человечество мне кажется сложным, а вот снабдить помощниками водителя человека уже проще(что сейчас и происходит понемногу) Вот когда все привыкнут к помощи правильной и быстрой, тогда следующий этап- полное замещение. Ну и для наглядности думаю надо бы оснастить много автомобилей системами автопилота, НО без возможности дёрнуть руль или нажать на педаль. И когда человечество увидит что 1 авария на миллион километров у автопилота это всё таки мало, НАФОНЕ 40 аварий на этом же автомобиле в этих же условиях у человека. Тогда сработает принцип сравнения 1 меньше 40 и это допустимо. А не голый факт- 1 авария на миллион километров = минимум 1 человеческая жертва. ( «аварий на километр» это конечно примерное исчисление, точнее будет «аварии на время проведённое в пути и кол-во машин-препятствий оказавшихся рядом» ) 5 минут на автостраде не равно 5 минутам в городе с оживлённым движением.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории