И вот в результате подобной практики мы окажемся в ситуации когда кто-то наврёт с три короба: «Наш грузовик может ездить сам». По договору, мелким шрифтом, будет снята вся ответственность с производителя автопилота. А грузовик глюканёт и соберёт полную остановку. И никто не понесёт ответственности. Так это будет повторяться вновь и вновь.
Я не призываю разодрать программистов на маленькие кусочки. Я считаю необходимо обсудить и эту сторону подобных разработок т.к. это не просто сайтик в интернете.
Каждый виноват только в том, что сделал не по инструкции и за личные ошибки. Сказано было использовать zlib значит он использует, но ответственен только за свой кусочек кода. Сделал по инструкции, всё проверили, но потом винда взбрыкнула при апдейте — виноват тот кто обновлял не по процедуре.
Если же вообще никто ни за что не отвечает, то получаются продукты где люди платят за кучу обещаний, а по факту там никто не готов ответить за слова.
Есть масса мест где можно внедрять автопилот прямо сейчас: все контролируемые площадки (склады, карьеры, заводы…), рельсовый транспорт, перевозки грузов на самолётах вне населённых территорий, грузовики по отдельным дорогам типа зимников.
Но и текущая ситуация когда тесла выпускает машины которые врезаются в бетонный отбойник и в результате всё спихивают на водителя это неправильный путь. Типа мы тут что-то напрограммировали, а вы пытайтесь с этим выжить как хотите.
По тем роликам которые я видел в ситуациях когда дворники не справляются аккуратно парковаться уже негде и нельзя т.к. кто-то сзади может убиться о стоящего. Глушить мотор глупо т.к. потом он заведётся только весной или с большими усилиями.
Хотелось бы заметить условия при которых ничерта не видно и водитель-человек может умереть если у него отключится двигатель или будет другая поломка мешающая ехать это именно те ситуации где и требуются роботы.
Роботы в такой ситуации могут читерить. Для них можно использовать радары которые дают чёрно-белое изображение.
Нет. У всех должно быть чёткое разделение и ограничение ответственности.
Если болт, программа делались по спецификациям с оговорённой надёжностью и требованиям, а вы взялись за такую работу — будьте добры ответить за свои труды.
Если вы выточили болт дома для крепления стула, а кто-то его у вас попросил и использовал в работе ГЭС, то это он полностью ответственен за все последствия.
Аналогично и код с гитхаба. Кто его применил, тот и отвечает. Хочешь переложить часть ответственности на программиста? Получай от него код по документам с оговорёнными условиями. И вряд ли кто-то согласится взвалить на себя ответственность бесплатно.
Сейчас в некоторых странах распространилась мода грузить на ж/д платформы автоприцепы с контейнерами или другим грузом. Получается грузовик привозит прицеп с грузом на станцию, грузит на платформу, отцепляется и едет за новым грузом. Поезд везёт платформы с прицепами на которых груз. На месте прицепы разбирают другие тягачи. Выглядит как бред, но видимо имеет экономический смысл.
Я его не посадил. За каждое действие не по инструкции адекватное наказание для всех виновных. И для ответственных за фишку, и для разработчиков тестирования, и для проверяющих, и для тех кто ставил им всем задачи.
Все почему-то привыкли считать программистов как ни за что не ответственных творческих личностей. Это нормально для фронтэндера личного блога или создателя алгоритма распознавания котиков на фото из мемов. И это совсем не нормально в высокоопасной инфраструктуре.
Безусловно уровень дохода дохода должен соответствовать требованиям, а инструкции должны чётко ограничивать лимит ответственности.
Именно поэтому там где подобная ответственность может догнать разумные люди действуют согласно нормативным документам. Делал болт по инструкции и он сломался? Невиновен! Делал болт как привык, а это не по инструкции и он сломался? Загубил себе жизнь.
Пример из нашей жизни (если можно верить официальной версии) — чувак воткнул фишку датчика не той стороной и ракета не полетела. Какие были последствия лично для него не знаю.
И сегодня, и в прошлом причина многих аварий — так называемый человеческий фактор. А проще — элементарное разгильдяйство. Тот же Уваров привел в пример давнюю аварию ракеты «Протон», на запуске которой он присутствовал на Байконуре. " В ходе расследования тогда выяснилось, что токарь на заводе, вытачивая один небольшой цилиндр, который играет роль поршня в системе топливной магистрали при давлении 150 атмосфер, случайно снял «фасочку». Под нее попала частица в 200 микрон. И вот этот поршень она и застопорила. Двигатель не стал работать, и ракета грохнулась".
История нашей космонавтики знает и другие случаи. Например, при наземных испытаниях аппарата стали выявляться похожие дефекты деталей. Стали разбираться. Пошли по технологической цепочке, и обнаружилась странная закономерность: все детали изготавливались одним и тем же токарем, и в определенные дни. А именно — после зарплаты. Оказалось, токарь прилично пил, и дни, когда он вытачивал детали, были именно после получения им заработной платы. Даже такие всплывали вещи.
В 2010 году ошибка в расчетах привела к переливу топлива при заправке разгонного блока ДМ-03, из-за чего страна потеряла три спутника «Глонасс-М». В 2011 году спутник «Экспресс-АМ4» был выведен на нерасчетную орбиту из-за неточности в циклограмме работы разгонного блока.
В дополнение про личную ответственность программистов. Сейчас не летает самая последняя модификация самолётов боинг из-за двух катастроф с большим количеством жертв произошедших по комплексной вине программистов, инженеров и их общего руководства. Там вроде есть иски, но не слышал о вступивших в силу личных приговорах.
А казалось бы. Просто неправильно обрабатывали данные с неполного набора датчиков и в результате два полных самолёта людей погибли.
При этом задача многократно проще определения препятствия на пути роботизированного автомобиля.
Помните — робоавтомобиль может ошибиться и собрать на себе полную остановку живых людей как это иногда делают живые водители. И это может произойти даже без внешнего воздействия хакеров-террористов/маньяков. Просто из-за неверного алгоритма или ошибки датчиков.
Полагаю начать необходимо с составления актуальных (действительно актуальных) карт с мгновенным отражением любых работ, знаков, разметки т.е. всего к чему причастны люди законно выполняющие любые согласованные работы на дороге. На данный момент у нас нет даже этого. После надёжной реализации этого этапа можно переходить к отслеживанию несогласованных работ.
P.S. Сейчас нечто похожее на вашу идею реализовано в картах через пользовательские отметки о ДТП и т.п.
Водители не любят ездить вдвоём. Помимо личной несовместимости это просто сложно. Не все могут выспаться когда машина едет и т.п. Кроме того движение вдвоём экономически выгодно для водителей только когда они непрерывно в пути, а это могут обеспечить далеко не все компании. Убытки от простоя значительно выше для двух водителей. В общем так делают, но это вариант не для всех.
Логично предположить отсутствие простых ситуаций. Было достаточно много тестов внедряемых сейчас систем автоматической остановки на основе радаров и лидаров которые показывают недостаточную надёжность. Нельзя полностью положиться на существующие сейчас системы.
Крайне плохо, что программисты Tesla не несут персональной ответственности за ошибки. Если бы у них был риск лично, по закону, ответить за ранение/смерть пешехода или другого участника движения уверен энтузиазм по внедрению таких систем на дорогах общего пользования сильно бы снизился. Никто бы уже не говорил о внедрении в ближайшие пару лет. И фокус внимания переместился бы туда куда и следует — закрытые карьеры, склады, железные дороги. И только после успешных, многолетних тестов мы бы снова услышали о автопилотах на обычных дорогах.
В европе существуют проблемы с воровством из грузовиков. Иногда могут даже не рекомендовать водителю выходить из машины если он что-то услышал/заметил подозрительное т.к. могут лишить здоровья. Безусловно не везде, но опасные места есть.
Нет там никаких простых решений. Даже если дорога будет только для роботов, то алгоритм всё равно должен уметь находить препятствия и избегать их т.к. может упасть дерево, снегом залепить все ориентиры, промоина образуется, сель сойдёт. Да будет проще, но недостаточно.
Я не призываю разодрать программистов на маленькие кусочки. Я считаю необходимо обсудить и эту сторону подобных разработок т.к. это не просто сайтик в интернете.
Если же вообще никто ни за что не отвечает, то получаются продукты где люди платят за кучу обещаний, а по факту там никто не готов ответить за слова.
Хотелось бы заметить условия при которых ничерта не видно и водитель-человек может умереть если у него отключится двигатель или будет другая поломка мешающая ехать это именно те ситуации где и требуются роботы.
Роботы в такой ситуации могут читерить. Для них можно использовать радары которые дают чёрно-белое изображение.
Если болт, программа делались по спецификациям с оговорённой надёжностью и требованиям, а вы взялись за такую работу — будьте добры ответить за свои труды.
Если вы выточили болт дома для крепления стула, а кто-то его у вас попросил и использовал в работе ГЭС, то это он полностью ответственен за все последствия.
Аналогично и код с гитхаба. Кто его применил, тот и отвечает. Хочешь переложить часть ответственности на программиста? Получай от него код по документам с оговорёнными условиями. И вряд ли кто-то согласится взвалить на себя ответственность бесплатно.
Все почему-то привыкли считать программистов как ни за что не ответственных творческих личностей. Это нормально для фронтэндера личного блога или создателя алгоритма распознавания котиков на фото из мемов. И это совсем не нормально в высокоопасной инфраструктуре.
Безусловно уровень дохода дохода должен соответствовать требованиям, а инструкции должны чётко ограничивать лимит ответственности.
Пример из нашей жизни (если можно верить официальной версии) — чувак воткнул фишку датчика не той стороной и ракета не полетела. Какие были последствия лично для него не знаю.
А казалось бы. Просто неправильно обрабатывали данные с неполного набора датчиков и в результате два полных самолёта людей погибли.
При этом задача многократно проще определения препятствия на пути роботизированного автомобиля.
Помните — робоавтомобиль может ошибиться и собрать на себе полную остановку живых людей как это иногда делают живые водители. И это может произойти даже без внешнего воздействия хакеров-террористов/маньяков. Просто из-за неверного алгоритма или ошибки датчиков.
P.S. Сейчас нечто похожее на вашу идею реализовано в картах через пользовательские отметки о ДТП и т.п.
Крайне плохо, что программисты Tesla не несут персональной ответственности за ошибки. Если бы у них был риск лично, по закону, ответить за ранение/смерть пешехода или другого участника движения уверен энтузиазм по внедрению таких систем на дорогах общего пользования сильно бы снизился. Никто бы уже не говорил о внедрении в ближайшие пару лет. И фокус внимания переместился бы туда куда и следует — закрытые карьеры, склады, железные дороги. И только после успешных, многолетних тестов мы бы снова услышали о автопилотах на обычных дорогах.