Прочитайте еще раз, что Вы написали и подумайте. Умейте различать понятие «внезапно выскочил» и «определенно двигался». В случае с убером было «определенно». А вот почему убер не остановился — причина в том, что у него, скоррее всего, нет контекста движения. для него каждый кадр — это независимые обьекты. Вот он и увидил «траекторию» в последний момент, когда уже было поздно.
П.С. Без обид. Вы скорее всего не программист, раз так рассуждаете.
А я посмотрю тут вообще не имеет смысла что либо комментировать. Для заминусовавших — вы ничерта не понимаете в этих технологиях. geektimes.ru/post/299347. Даже эксперты говорят так же.
Факт на лицо, что виноват Убер. Здесь уже много написали верных доводов про человека: начиная от дальнего света, приемлемой скорости, то что, человеческий глаз адаптируется лучше камеры и т.п.
В случае управления человеком — если бы человек ехал так же — его признают виновным. Т.к. он ехал не с той скоростью при которой мог бы среагировать на препятствие.
В случае управления машиной — ее реакция раз в 100 быстрее. Во вторых у нее ОБЯЗАНЫ быть способы определения препятствия в темноте. Тот же лидар видит препятствие на 100+ метров вперед, а последнего поколения вовсе 300. Даже если за 100 метров компу чтото не понравиться остановочный путь будет чуть более 32 метров. Да даже если 80 — аварии бы не произошло.
А вот менты США ссылаются на то, что убер не виноват — да им на лапу дали.
И не забывайте к автопилотам требования по безопасности должны быть намного выше, т.к. они реагируют намного быстрее человека.
Когда слышу от людей, что GOTO это плохо — понимаю, что дальше с ними говорить о программированиине не имеет смысла для себя. Автор видимо никогда не писал автоматы. А они как раз таки используются во многих парсерах.
Попробуйте запустить на Node.js. Не знаю почему, но в браузере значительной разницы не вижу тоже. У меня выдает 776 для начального варианта и 716 для конечного.
Вы видимо невнимательно читали статью. Да она создается много кратно. И я вывел время ее создания. Это 20 мс/1000000 повторений, а вот массивы создаваемые в ней уже создаются разное время.
П.С. Без обид. Вы скорее всего не программист, раз так рассуждаете.
В случае управления человеком — если бы человек ехал так же — его признают виновным. Т.к. он ехал не с той скоростью при которой мог бы среагировать на препятствие.
В случае управления машиной — ее реакция раз в 100 быстрее. Во вторых у нее ОБЯЗАНЫ быть способы определения препятствия в темноте. Тот же лидар видит препятствие на 100+ метров вперед, а последнего поколения вовсе 300. Даже если за 100 метров компу чтото не понравиться остановочный путь будет чуть более 32 метров. Да даже если 80 — аварии бы не произошло.
А вот менты США ссылаются на то, что убер не виноват — да им на лапу дали.
И не забывайте к автопилотам требования по безопасности должны быть намного выше, т.к. они реагируют намного быстрее человека.
Как пример:
GET /users/1234/books?limit=10
POST /users/1234 {name: «User1»}
Выглядит так:
Под капотом он обращался к апи, парсил ответ и генерировал ошибку если пошло что-то не так или возвращал ответ апи сервера