Comments 58
Алгоритмы и модуляция, как Вы и указали. Здесь говорится о массиве излучающих лазеров, это не лидар с одним мощным источником-лазером, где имеет место когерентность сигнала.
И ещё ситуация — луч послали, а на его пути зеркало. Луч ушёл вбок и не вернулся. Какое расстояние до зеркала?
И ещё ситуация — луч послали, а на его пути зеркало. Луч ушёл вбок и не вернулся. Какое расстояние до зеркала?Классически-программисткое: NULL!=0
В остальном — так же, как поступает мозг со слепым пятном: выдумывает, что бы это там могло быть.
авто едущих навстречу?C учётом V2V всё будет ещё красивее: поймав сигнал встречного издали, ему можно будет ответить по V2V: «вижу тебя». Так дальность взаимного опознавания вырастет значительно больше дальности работы собственно лидара (то есть дальности, когда отражённый сигнал придёт с достаточной мощностью).
То же самое и с лидарами. Они не работают на каких-то когерентных частотах как радары, а просто посылают короткие (очень короткие) импульсы туда-сюда, и принимают отражение. В инфакрасном диапазоне линзы тоже работают, поэтому фотодетектору не надо обозревать 360 градусов вокруг себя, просто смотреть примерно туда-же куда отправили, что и делается с помощью линзы. В следующий момент времени приемо-передатчик уже слегка повернется и снова отправит импульс, который улетит уже в другую сторону.
Чтобы задетектировать чужой импульс, нужно чтобы в той самой стороне куда только что отправили сигнал стоял еще один такой-же лидар и чтобы он был очень точно отсинхранизирован по времени и выстрелил обратно в тот же самый момент. Это крайне маловероятно, а если и произойдет то получится что одна точка в полученном поинт-клауде будет испрочена. Следующее измерение уже пойдет в сторону и не затронет тот второй лидар никак. Даже если у вас миллион лидаров в одной комнате, они будут продолжать работать нормально, максимум что может случиться — повысится уровень шумов в принимаемых клаудах.
мы не ставим лидары — в одну комнату… мы моделируем реальную обстановку…
с установкой в светлом помещении с требуемым уровнем освещенности, лидары на карусельках с имитацией движения на необходимой скорости, мишень на рельсах с заданным расстоянием… — проблемы с точностью определения расстояния есть…
зависимость проблем от плотности сигнала — прямо пропорциональная…
Метеорадар работает на частоте 5,65 ГГц с импульсной мощностью 900 кВт (!) импульсами по 60 мкс на быстро вращающейся антенне (1 оборот в 10 секунд)
Хозяйке на заметку: если вокруг радара построить стандартный трек, то среднестатистический спортсмен сварится, не успев проехать даже трети круга
Это решается переходом в диапазон частот, волны которого проникают через среду. Ближний ИК-диапазон неплохо проявляет себя с пылью, дальний и через пакеты пластиковые пробивает, миллиметровые волны мало обращают внимания на широкий спектр материалов и их геометрии. Дальнейшее увеличение волны возможно, но нужно учитывать наличие разумных источников излучения и приёмников (для ближнего ИК — полупроводниковые приборы, для дальнего ИК — лазеры на СO2 и микроантенны, ну а дальше из изведанных — гигагерцовые системы, те же радары на 77 ГГц). Сложность той или иной технологии лидара/радара идёт в ногу с компромисами в компактности, стоимости, наличия проверенных технологий и т.п.
Подскажите два три из них, у меня есть идея для удешевления лидара.
Хочется проверить и если получится, то продать (на икру последнее время не хватает)
Российский патент не имеет «хождения» в мире (тоже муторно и не дешево), а «международный» слишком дорого.
Для таких случаев производится процедура депонирования, но этот подход из разряда: «Так не доставайся ж ты никому! ». Подожду немного и статью напишу на HABR.
>Российский патент не имеет «хождения» в мире
Имеет. Вначале оформляете российский патент, затем у вас есть три года, чтобы оформить патенты в других странах.
>тоже муторно и не дешево
Что значит «не дешево»? Патент можно самостоятельно написать изучив чужие по схожей тематике. Стоимость заявки, что-то в районе 10 000 руб. или даже дешевле (не помню сейчас точно). Всё можно подать через интернет и отправить почтой.
Решил просто предлагать профильным организациям и если нет заинтересованности, то публиковать на хабре (например). Если кто заинтересуется, просто как инженера или консультанта наймут.
Проверите идею и со мной поделитесь ))).
Одно непременное условие — указывать автора, те меня любимого.
До повторения таких «ошибок», нам довольно-таки далеко еще.
и чем же круче — сколько кадров в секунду можем воспринять? как точно определяем расстояние по стерео взгляду? что делать с большим слепым пятном? а саккады? а выключение зрения в конце цикла на обработку?
В том-то и крутота, что мы в камере последовательно опрашиваем светочуствительные элементы и передаем информацию по последовательному интерфейсу. А потом уже, если нужно скажем распознать что-то опять запихиваем в двумерную структуру, а глаз во первых что-то обрабатывает уже на месте, а потом передает информацию параллельно. Поэтому кадры в секунду бессмысленный термин для глаза, глаз это не камера, это составная часть системы распознавания, ИМХО это первый-второй слой нейронной сети, хотя я не большой спец, могу ошибаться.
Что касается точности/скорости определения расстояния, то например хватает, чтобы обезьяне прыгать в кроне дерева с ветка на ветку.
Добавил:
Вот, нашел некоторые цифры, в глазу порядка 100 миллионов светочуствительных клеток, а в мозг уходит порядка 1 миллиона нервов, сокращение количества сигналов за счет обработки в сетчатке, ИМХО.
То-есть от того что часть обрабатывающих мощностей встроена в глаз не меняется вообще ничего. Какая разница, где именно будет обработано изображение. Тут главное как — а это уже дело техники. У нас ТПУ то появились не так давно, надо подождать еще лет пять.
Кстати количество клеток в глазу избыточно и взято с запасом в расчете на деградацию. Мы не используем и четверти реальных возможностей глаза, а с возрастом все становится еще печальней. Это как на профессиональную камеру одеть китайский детский пластиковый объектив, который еще и б/у
То-есть от того что часть обрабатывающих мощностей встроена в глаз не меняется вообще ничего.
Меняется скорость обработки. Повышается на порядки.
Нейробиологи из Массачусетского технологического института установили минимальное время, в течение которого человеку нужно показывать изображение, чтобы мозг сумел его обработать. Показатель равен 13 миллисекундам. Это значительно меньше, чем предполагалось. Раньше учёные оценивали время обработки информации примерно в 100 миллисекунд.
Это значит, что нам пока рано задирать нос.
Кадры в секунду бесполезный термин?))) да ладно? вся система видео построена на том что глаз неспособен разделить менее 24 кадров в секунду)
прыгать интуитивно? да. ну-ка посмотрите на предмет и скажите сколько до него сантиметров точно? сравните с рулеткой. а вот комп на базе изображений стереокамеры — может.
и вообще вы через чур оптимистичны насчет глаз и мозга…
почитайте: о Слепота невнимания и другие исследования о проблемах фактического зрения человека
глаз не обрабатывает сигнал на месте чуть меньше чем никак
Горизонтальные клетки
Биполярные клетки
Амакриновые клетки
и т.д. — и это всё еще до того, как сигнал покинул глаз…
«24 кадра» — это изза сознания. Глаз — умеет «замечать» и более короткие промежутки между изменениями светового потока, вот только в сознание они не смогут попасть. (В сознание вообще много чего не попадает — взять хотя бы моргания или саккады)
все ваши цитаты википедии — помещаются в мой вопрос с самого начала
«или вы имеете в виду преобразование: полученного света в химию, а потом в электричество?»
эти клетки используются только для формирования нервного сигнала передаваемого в кору мозга- именно там происходит обработка сигнала и понимание что же такое видим…
глаз человека вообще ничего не понимает что видит…
У меня — клетки, которые «преобразовывают свет в химию» — это палочки и колбочки, а все остальные за ними — преобразовывают их сигналы (как второй, третий и т.д. каскады).
«Понимать» глаз разумеется ничего не понимает, но он обрабатывает сигналы, и не все сигналы, которые он получает, беспрепятственно проходят дальше в мозг.
С инженерной точки зрения это как раз и позволяет значительно умерьшить количество информации, передаваемой на большое расстояние (в мозг).
преобразование света в сигнал… колбочки
накопление сигнала...(биполярные, горизонтальные клетки)
считывание накопленного потенциала сигнала ( амакриновые и ганглионарные клеитки) и передача его в мозг…
то есть наше зрение не что иное как обычная матрица — вот только процессоров обработки сигнала в ней больше
но про обработку — наличие нейронной сети связанной с обработкой информации — как раз никто не пишет…
Горизонтальные клетки соединяют расположенные рядом фоторецепторы. От тела горизонтальной клетки отходит несколько отростков, которые образуют синаптические контакты с фоторецепторами. Основная функция горизонтальных клеток – осуществление латеральных взаимодействий фоторецепторов.
ИМХО, горизонтальное взаимодействие, это и есть обработка.
en.wikipedia.org/wiki/Active-pixel_sensor
Сетчатка дрозофил показала автономность в распознавании образов
Оттуда:
По словам исследователей, нелинейное кодирование на периферии ЦНС упрощает детализацию визуальных стимулов. Такое устройство зрительного анализатора повышает эффективность восприятия, в том числе краев движущихся объектов. Прежде считалось, что фоторецепторы лишь преобразуют свет в электрические сигналы.
— что хотели получить то и получили…
A similar analysis carried out using recordings from blind hdcJK910 mutant flies, indicates that the nonlinear transformations underlying the detection of phase correlations in the temporal light stimuli are performed by phototransduction alone, and do not require synaptic interactions between neighbouring neurons.
Среди других свойств нейронов, связанных с организацией их рецептивных полей, следует отметить избирательность к направлению движения видимых объектов. Такие клетки дают максимальные разряды, когда стимул движется через рецептивное поле в строго определенном направлении, которое таким образом, оказывается предпочитаемым для данного нейрона. Ганглиозные клетки сетчатки обладающие избирательностью к направлению движения, изучены в сетчатках многих видов млекопитающих, в том числе и в сетчатке кошки.
Ссылка
Проблема лидара в том, что он не может заменить ни камеры, ни радар, при этом стоит раза в четыре больше, чем сборка с системами обработки, камерами и радаром. Лидар не видит знаки, разметку и светофоры при всем желании — значит без камер машина в принципе ездить не сможет. И в отличии от радара на него сильнее влияет погода. Данные от лидара просто избыточны, машине вовсе ненужна такая точность, а остальное могут собрать камеры. У лидара плюс в том, что он хорошо отслеживает движение объектов вокруг, выкидывая много лишней информации в отличии от камер, что делает обработку его сигнала проще… но опять же без камер машина ездить не может, как и без обработки изображения с них.
Вот и выходит, что лидар — просто костыль, которым пытаются компенсировать несовершенство ИИ, который разбирает изображения с камер. Думаю лет через пять, когда ТПУ как следует войдут в нашу жизнь и работа с изображением от видеокамер станет куда лучше — лидары с машин начнут исчезать.
Во времена гоэлро-2 считалось полным бредом, что в каждый дом проведут медный провода, молчу про оптический кабель, канализацию и водопровод))
Лидары будущего: 11 000 лазеров вместо 128