28 нм — это не хреновенький. Это очень даже! Хуавей вон в прошлом году говорила о планах перейти на 28 нм в плане собственного производства. У нас же до сих пор 90-165…
Для справки: оборудование для литографии по 7нм и меньше делает всего одна фирма в мире (бенефициарами которой являются все топовые производителе электроники) и там такие технологии, что туда мы еще долго не сунемся.
Ну т.е. строим фабрику, параллельно под это дело собираем команду, которая работает над исследовательским проектом, без которого фабрика в общем бесполезна… Щедро заливаем все это деньгами. К 2030 года имеем дыру в бюджете, несостоявшуюся технологию и простаивающую фабрику… Ну что же — отрицательный результат — тоже результат!
Нашел информацию, что они конечно же получают карту глубин с камер, но действительно не используют триангуляцию, а используют нейросеть обученную на данных с лидара.
Ну… Я согласен, что вы молодец и так и надо! Но есть одно небольшое «но»: если код еще не в продакшене, и тестеры его не гоняли, а по факту у вас -1200 и +320 — есть риск, что вы что-то таки упустили. :)
Я не понимаю, как у вас уживается одновременно наличие ВОСЬМИ камер, которые по FOV явно перекрывают друг друга и понятие "монокулярное зрение"! )) С чего вы взяли, что оно монокулярное-то? Вот почитайте еще здесь: https://bespilot.com/companies/117-tesla, там картинки есть с углами обзоров камер...
Или вы под "бинокулярным зрением" понимаете только камеру типа как у вас - когда между объективами расстояние примерно как у человека? ))) любые две и более камеры с известными параметрами и перекрывающимися FOV позволяют построить карту глубин математическими методами!
Конечно тесла именно это и делает - получает данные с 8 камер и строит объемную сцену. Именно поэтому они отказываются от лидаров - 8 камер дешевле, а качество почти не уступает.
>>> «Нейросетевые методы» это когда берем стереопару+данные лидара и никакой математики и триангуляции.
lol. Ну удачи вам с таким подходом. ;)
>>> не, метаданных нет
А что так? ;) Там одна команда ffmpeg и ваш контент уже интересен не только и не столько пользователям устаревшего Gear VR! Поверьте - правильно настроенное видео в Oculus Quest выглядит потрясающе!
Впрочем, если вы делаете видео чисто для себя, то оно действительно не очень надо. НО тогда зачем писать "Мне кажется, что мои ролики являются одними из самых качественных на ютубе в формате 3д"? Может они и качественные (мне лень проверять, хотя Gear VR у меня есть), но не в формате 3D. просто 2 картинки рядом.
Господи, да простейший же ответ: если нужно принять решение куда въехать: в стойку с фруктами, или в пешехода — надо въезжать в стойку с фруктами. Для этого объекты и нужно классифицировать.
Эм… Ну да — там камер больше, чем две. :) НО подход все тот-же: триангуляция ключевых точек для определения параллакса/смещения. Они совершенно точно получают с камер карту глубин — поэтому и отказались от лидара в недорогих моделях.
>>> Составить карту глубины по стереопаре можно и с помощью математических методов и с помощью нейросетей…
«Нейросетевые методы» — это когда берем стереопару, считаем математическими методами, а потом обучаем полученными данными нейросеть. Ну или лидар тоже берем в расчет:) Смысл такого мероприятия? Если у вас одна камера — тут понятно: нет другого варианта, кроме как обучать нейросеть — у вас просто недостаточно данных для математики. Если у вас две камеры — данных достаточно. А что вычислительно проще — вопрос…
Я использую шлем Oqulus Quest2 и ваше видео не воспроизводится как 3D Контент…
Вот пример ролика, который выложен правильно: youtu.be/FSGfN9rr78Q — в шлеме офигенно смотрится! ) уверен, ваши ролики тоже будут хороши, но нужно их правильно оформить.
А между тем, в стандартный AR-core|ArKit добавили очень интересную математику, которая позволяет использовать телефон с обычной камерой (правда неплохой, и с заранее известными параметрами), плюс данные гироскопа и за счет правильно триангуляции считать расстояния с вполне приемлемой точностью… См armeasure.com например.
Так я про это и говорю — чистая математика без нейросетей это для стереопары нормальная практика! Если даже питоном на малинке можно посчитать карту глубин по стереопаре, то уж тем более нету проблемы это сделать на чипах, специально заточенных. Нейросети — это вовсе не мейнстрим в данной области, а некий… Ну альтернативный подход, скажем так! Сейчас вообще популярно делать все что угодно через нейросети (стильно, модно, молодёжно), но карта глубин по стереопаре — чисто математическая задача.
PS На ваших роликах по ощущениям разная цветокоррекция на левой и правой камерах, что не есть хорошо. Доберусь до дома — посмотрю вживую на правильном девайсе… У вас теги все проставлены же? Шлем определит контент как стерео-пару?
>>> ссылку выкладывать не буду, ибо мало кто сможет их посмотреть: нужны 3д очки, смартфон с плотностью пикселей экрана не ниже 560ppi, а таких уже нет в продаже
Ну уж ладно — не скромничайте, выкладывайте! ) Много у кого есть нужные девайсы — это же хабр.
>>> Основная мысль статьи была в том, что в противостоянии подходов тесла и гугл к машинному зрению, неожиданно может выйграть подход dji (бинокулярное зрение)
Ну нет… На самом деле очень многие, далеко не только dji, вполне трезво оценивают перспективы стереопары в смысле карты глубин! Как минимум, это на пару порядков дешевле, а с учетом производительности современных чипов — уже практически ничем не хуже. Как минимум производители смартфонов, шлемов виртуальной реальности и прочих «носимых устройств» — уже точно сосредоточились на стереопарах (хотя по началу, после kinect, казалось что скоро в каждый мобильник будет встроен лидар (ну там чуть иной принцип, ИК-проектор + камера)… Впрочем, во флагманы он и в самом деле часто встроен!).
Ну и самое важное: откуда картинка с машинным зрением? Нейросетевые подходы конечно применяются… Я даже полагаю, что возможно вычислительно проще обсчитать обученную собирать карту глубин из стерео-пары нейронку, чем выделять ключевые точки и рассчитывать их смещение… Но при известном расстоянии между камерами и параметрах самих камер — это математически строгая задача, которая решается именно вычислительно! Почему вдруг «астрономия»? Вот неплохая статья с примером использования математики OpenCV на «малинке» (для начала, потому что конечно OpenCV под питоном и на малинке — это скорее натурные эксперименты, чем разработка).
Я не вполне уверен, что dji использует именно и только нейросети! Хотя все может быть…
Я не думаю, что это спам. Оновная черта рекламных рассылок — их массовость. А здесь слишком много телодвижений на одного «потенциального клиента». Плюс охват: спам рассылка это от десятков и сотен тысяч сообщений до миллионов и десятков миллионов. Столько отмененных чеков — то еще «палево» для налоговой.
Опять же — поддельный чек, это чуть ли не уголовка, а сообщить о нем — легче легкого! Есть всякие горячие линии, куда можно писать о не выданном чеке — думаю туда же можно писать о выданном некорректно.
Гена — клоун с заниженной самооценкой, который самоутверждается за счет менеджеров, которых выставляет идиотами. Но собственно они сами виноваты, что ведутся.
>>> до 3% мирового ВВП, преимущественно за счёт полезных ископаемых, это надо умудриться.
Я надеюсь вы знаете, что у штатов cо всеми их Google, Microsoft и прочими Aplle — целых 15%, а у вот у той же Германии уже те же 3. ) И что Россия на 6 месте (была… сейчас, наверное все хуже), и 3% это больше чем у Великобритании, Франции, Канады… В общем так-то 3% от мировой экономики это ДО ФИГА.
Это я не в противовес тому, что вы написали, просто… Ну реально, когда говорят, что мол фигня — ВСЕГО 3%, мне хочется ткнуть людей в таблицу, что бы они поняли, что «три процента» — это как у Германии и Японии, и что таких стран в мире очень не много…
Художественна литература… Все говорят «сложный человек, трудно работать» — но менять не хотят. Т.к. нет ни одного аргумента — «с чего бы вдруг?», думаю это художественный вымысел. Ну или тема плюсов такого работника для клиента не раскрыта. Любой разработчик — часть общего процесса. Если разработчик иррационально непредсказуем любой процесс, в котором он задействован всегда под риском срыва. Т.е. его действия нельзя предсказать и спланировать. В общем, объективно нет причин почему бы кто-то хотел с ним работать.
При этом же они принципиально завязывают игры на онлайн! В Diablo2 Remastered убрали режим игры «по локальной сети» (причем мотивируя это «заботой об игроках») — купил за в общем-то серьезные деньги, что бы с ребенком поиграть, показать в что «папка рубал в юности» — так что бы вместе поиграть — нужно было в очереди на подключение по полчаса стоять первую неделю! «Да, мы о@Уели, и что?»(с)Blizzard. Но там хоть что-то работает офлайн. А во многих современных играх офлайн в принципе не предусмотрен и если/когда они тоже «устареют» — то их просто не будет!
Давайте посмотрим правде в глаза: это что угодно, но не письмо Мишустину. ( Огромное количество плохо увязанных и непоследовательных тезисов и абсолютно не просматривается ответ на главный вопрос: чего же именно, конкретно не хватает для "создания своей экосистемы и IT суверенитета". И зачем такое писать? Что бы напомнить о существовании Профсоюза работников ИТ? Ну, такое...
Для справки: оборудование для литографии по 7нм и меньше делает всего одна фирма в мире (бенефициарами которой являются все топовые производителе электроники) и там такие технологии, что туда мы еще долго не сунемся.
Так? :( Думаю все-таки нет… Должен быть план Б!
Нашел информацию, что они конечно же получают карту глубин с камер, но действительно не используют триангуляцию, а используют нейросеть обученную на данных с лидара.
https://electrek.co/2021/07/07/hacker-tesla-full-self-drivings-vision-depth-perception-neural-net-can-see/
Мужик заходит к приятелю и видит, что тот играет в шахматы со своей собакой.
— Какая умная собака!
— Умная? Да я веду со счетом 3: 2!
Я не понимаю, как у вас уживается одновременно наличие ВОСЬМИ камер, которые по FOV явно перекрывают друг друга и понятие "монокулярное зрение"! )) С чего вы взяли, что оно монокулярное-то? Вот почитайте еще здесь: https://bespilot.com/companies/117-tesla, там картинки есть с углами обзоров камер...
Или вы под "бинокулярным зрением" понимаете только камеру типа как у вас - когда между объективами расстояние примерно как у человека? ))) любые две и более камеры с известными параметрами и перекрывающимися FOV позволяют построить карту глубин математическими методами!
>>> Тесла не получает карту глубины с камер (это невозможно теоретически).
Серьезно? ))) Давайте я поищу в гугле за вас: https://www.reddit.com/r/teslamotors/comments/bgmqgv/3d_reconstruction_shows_depth_of_information_a/
Конечно тесла именно это и делает - получает данные с 8 камер и строит объемную сцену. Именно поэтому они отказываются от лидаров - 8 камер дешевле, а качество почти не уступает.
>>> «Нейросетевые методы» это когда берем стереопару+данные лидара и никакой математики и триангуляции.
lol. Ну удачи вам с таким подходом. ;)
>>> не, метаданных нет
А что так? ;) Там одна команда ffmpeg и ваш контент уже интересен не только и не столько пользователям устаревшего Gear VR! Поверьте - правильно настроенное видео в Oculus Quest выглядит потрясающе!
Впрочем, если вы делаете видео чисто для себя, то оно действительно не очень надо. НО тогда зачем писать "Мне кажется, что мои ролики являются одними из самых качественных на ютубе в формате 3д"? Может они и качественные (мне лень проверять, хотя Gear VR у меня есть), но не в формате 3D. просто 2 картинки рядом.
Эм… Ну да — там камер больше, чем две. :) НО подход все тот-же: триангуляция ключевых точек для определения параллакса/смещения. Они совершенно точно получают с камер карту глубин — поэтому и отказались от лидара в недорогих моделях.
>>> Составить карту глубины по стереопаре можно и с помощью математических методов и с помощью нейросетей…
«Нейросетевые методы» — это когда берем стереопару, считаем математическими методами, а потом обучаем полученными данными нейросеть. Ну или лидар тоже берем в расчет:) Смысл такого мероприятия? Если у вас одна камера — тут понятно: нет другого варианта, кроме как обучать нейросеть — у вас просто недостаточно данных для математики. Если у вас две камеры — данных достаточно. А что вычислительно проще — вопрос…
Скажите, а вы свои стереопары загружаете, как написано тут: support.google.com/youtube/answer/7278886?hl=ru?
Я использую шлем Oqulus Quest2 и ваше видео не воспроизводится как 3D Контент…
Вот пример ролика, который выложен правильно: youtu.be/FSGfN9rr78Q — в шлеме офигенно смотрится! ) уверен, ваши ролики тоже будут хороши, но нужно их правильно оформить.
habr.com/ru/news/t/559310
>>> Но там чистая математика, без нейросетей.
Так я про это и говорю — чистая математика без нейросетей это для стереопары нормальная практика! Если даже питоном на малинке можно посчитать карту глубин по стереопаре, то уж тем более нету проблемы это сделать на чипах, специально заточенных. Нейросети — это вовсе не мейнстрим в данной области, а некий… Ну альтернативный подход, скажем так! Сейчас вообще популярно делать все что угодно через нейросети (стильно, модно, молодёжно), но карта глубин по стереопаре — чисто математическая задача.
PS На ваших роликах по ощущениям разная цветокоррекция на левой и правой камерах, что не есть хорошо. Доберусь до дома — посмотрю вживую на правильном девайсе… У вас теги все проставлены же? Шлем определит контент как стерео-пару?
Ну уж ладно — не скромничайте, выкладывайте! ) Много у кого есть нужные девайсы — это же хабр.
>>> Основная мысль статьи была в том, что в противостоянии подходов тесла и гугл к машинному зрению, неожиданно может выйграть подход dji (бинокулярное зрение)
Ну нет… На самом деле очень многие, далеко не только dji, вполне трезво оценивают перспективы стереопары в смысле карты глубин! Как минимум, это на пару порядков дешевле, а с учетом производительности современных чипов — уже практически ничем не хуже. Как минимум производители смартфонов, шлемов виртуальной реальности и прочих «носимых устройств» — уже точно сосредоточились на стереопарах (хотя по началу, после kinect, казалось что скоро в каждый мобильник будет встроен
лидар(ну там чуть иной принцип, ИК-проектор + камера)… Впрочем, во флагманы он и в самом деле часто встроен!).Ну и самое важное: откуда картинка с машинным зрением? Нейросетевые подходы конечно применяются… Я даже полагаю, что возможно вычислительно проще обсчитать обученную собирать карту глубин из стерео-пары нейронку, чем выделять ключевые точки и рассчитывать их смещение… Но при известном расстоянии между камерами и параметрах самих камер — это математически строгая задача, которая решается именно вычислительно! Почему вдруг «астрономия»? Вот неплохая статья с примером использования математики OpenCV на «малинке» (для начала, потому что конечно OpenCV под питоном и на малинке — это скорее натурные эксперименты, чем разработка).
Я не вполне уверен, что dji использует именно и только нейросети! Хотя все может быть…
Опять же — поддельный чек, это чуть ли не уголовка, а сообщить о нем — легче легкого! Есть всякие горячие линии, куда можно писать о не выданном чеке — думаю туда же можно писать о выданном некорректно.
Я надеюсь вы знаете, что у штатов cо всеми их Google, Microsoft и прочими Aplle — целых 15%, а у вот у той же Германии уже те же 3. ) И что Россия на 6 месте (была… сейчас, наверное все хуже), и 3% это больше чем у Великобритании, Франции, Канады… В общем так-то 3% от мировой экономики это ДО ФИГА.
Это я не в противовес тому, что вы написали, просто… Ну реально, когда говорят, что мол фигня — ВСЕГО 3%, мне хочется ткнуть людей в таблицу, что бы они поняли, что «три процента» — это как у Германии и Японии, и что таких стран в мире очень не много…
Фатального недостатка…
Давайте посмотрим правде в глаза: это что угодно, но не письмо Мишустину. ( Огромное количество плохо увязанных и непоследовательных тезисов и абсолютно не просматривается ответ на главный вопрос: чего же именно, конкретно не хватает для "создания своей экосистемы и IT суверенитета". И зачем такое писать? Что бы напомнить о существовании Профсоюза работников ИТ? Ну, такое...
Вот хорошая статья на тему: https://habr.com/ru/post/656677/