• Бабло побеждает, часть 1 «Чудеса существуют»
    +5
    Мне кажется что на середину 2020 года был вот этот хороший выпуск Редакции который очень подробно все рассказывал:

    В целом, печально конечно все это… Власть не умеет признавать ошибки и договариваться. Вместо этого больше обмана и лжи.
  • Тихая революция и новый дикий запад в ComputerVision
    +1
    Да, это ода из тех причин почему их любят больше сверточных сетей.
    Но не всегда отклик адекватен.
  • Хакеры слили базу сторонников Алексея Навального, выразивших согласие выйти на митинг
    +8
    Открыл базу полистать, себя найти, да глянуть кто из друзей пойдет. Не удержался загуглить "@gov.ru":

    В базе имеется —
    accredit@gov.ru
    peskov@gov.ru
    putin@gov.ru
    rs@gov.ru
    shamne.oleg@gov.ru

    Считаю это успех.
  • Житель Детройта судится с полицией из-за ареста на основании данных системы распознавания лиц
    +2
    Немножко классики

    Ну а в целом это то почему любую систему ComputerVision нужно использовать очень аккуратно/помня об ошибках. Ну и да. Ждем пока Сбербанк разрешит оплату лицами на кассах.
  • Edge платы для домашнего Computer Vision
    0
    Я знаю ребят которые в облаке Google на TPU обучали. Говорили что чуть дешевле получается по цене, но сильно больше работы по переносу и настройке моделей.
  • Edge платы для домашнего Computer Vision
    +1
    Тут, скорее, упираться все будет в железо и в его поддержку. Например Intel оптимизировал архитектуру чтобы инферить нейронки неплохо. Для ARM есть множество вариантов когда какие-то операции выполняются на чипе (NEON, и.т.д.).
    Какие-то фреймворки все это успешно используют, какие-то менее успешно. Что-то надо запускать на родном фреймворке, что-то на onnx.

    Я думаю что лет через 5 все может устаканиться, будет какая-то универсальная система инференса и общие концепты аппаратной поддержки. И все просто будет в терафлопах измеряться.
  • Edge платы для домашнего Computer Vision
    +1
    Привет!
    По сути да, разные x86|одноплатники на АРМе. На том же Jetson, кстати, есть pci-e шина. Она не на всех макетках выводиться, но в теории есть. В некоторых OrangePi есть, в каких-то ASUS TINKER есть. Кстати, в Compute версии RPI тоже есть.
  • Edge платы для домашнего Computer Vision
    0
    О, кстати, да. Мы же на этом делали нашу первую embedded версию распознавания радужки глаза году в 2009-2010. Только сейчас вспомнил как оно называло. Прямо воспоминаниями накинуло.
    Ещё помню пробовали на блэкфин портировать.
  • Edge платы для домашнего Computer Vision
    0
    Если я понимаю правильно (спрашивал по знакомым), то в двух словах — очень ограничено по памяти, далеко не все модели лезут. Нет переноса с большого числа фреймворков, чуть ли не в ручную надо делать. Плохая поддержка от сообщества, много не леченых багов. Много слоев не переноситься.
    Но опять же, это вполне может хватать для каких-то проектов.

    За NM500 спасибо — не натыкался, посмотрю как время будет.
  • Кормушка с видео в ленте телеграмма
    +1
    4 года назад делал почти то же самое — habr.com/ru/post/322520
  • Под капотом OpenVINO (Intel Neural Stick)
    0
    У вас есть некоторая логическая бага. OpenVINO он не только про Myriad, он про любой процессор Intel. Это набор библиотек позволяющий оптимизировать сети и на Intel CPU и на Intel GPU и на TPU, и даже на FPGA.
    А вы тут всю статью отталкиваетесь от того что OpenVino для стиков (начиная с текущего названия статьи). Наверное лучше поправить. Как минимум название.
  • Хабрарейтинг 2020: Авторы vs Корпоративные Блоги
    +1
    У меня нет сомнений что в «корп» блогах — очень много хороших и качественных постов. И хороших и качественных авторов. Но, к сожалению, треша там тоже хватает.
  • Хабрарейтинг 2020: Авторы vs Корпоративные Блоги
    +11
    Даже более того, думаю, все так делают, да и формально вроде ничего не нарушено :)

    Ну вот да. Я с этим согласен.

    При этом проблемы такого подхода в целом очевидны — в день где-то 5-10 статей которые там никогда бы не были, и скучны 99% пользователей — выходят в топ. Понижая вероятность выхода туда неплохих статей, которые были бы интересны уже 5-10% читателей, но не имеют такого буста.
  • Хабрарейтинг 2020: Авторы vs Корпоративные Блоги
    +8
    Ну, тут я писать не буду, но могу в личку скинуть несколько компаний где +20 получается через 2-3 часа после выхода статьи и потом не растет. При этом у таких компаний как-раз 20-30 сотрудников полноправных на хабре, с достаточными балами для плюсования.
    Там вроде надо не то +5 не то +10 к карме для того чтобы ставить оценки. Это всего одна статья, что делается не сложно.

    В моем представлении статья после публикации кидается в общий чат, и её все увидевшие плюсуют не читая.
  • Хабрарейтинг 2020: Авторы vs Корпоративные Блоги
    +18
    в среднем получают более высокие оценки

    Есть очень много корп. блогов где очевидная накрутка плюсами идет. Ну, как накрутка. Компании где 20-30 человек есть на Хабре, зачастую резко плюсуют статью выводя на главную. Это очень хорошо видно, у таких компаний есть некоторый «минимальный» балл ниже которого не опускается.
    Понятно, что это серая зона, по правилам так делать не запрещено, как я понимаю.

    Но реально интересно было бы посмотреть на то насколько эта штука влияет. И посмотреть на топ-блоги по использованию:)
    Но реально опасно такое делать так как бывают крутые авторы пишущие в корп-блоги. Можно зазря обвинить
  • 5 подходов к разметке данных для проектов машинного обучения
    0
    Добрый день!
    Да, мы так регулярно делаем. Например базовая архитектура нашего сервера разметки именно так и устроена — cv-blog.ru/?p=368
    У нас форматы входа и выхода одинаковы => на вход разметки можно подавать предразмеченые кадры алгоритма. В том же посте видео о том как мы это делаем.

    С биасом как-то не боремся. Обычно если это так критично — просто с нуля размечаем. Не помню даже когда такое было в последний раз.
  • AI, который не просит хлеба
    0
    Вопрос — почему? Кто знает — пишите в комментариях

    Если я правильно понял вы подключаетесь напрямую к ip камере («Они подключены к одной единственной ip-камере»). У вас не являются идентичными кадры которые попадаю на вход обоих алгоритмов. Может меняться компрессия потока, может где-то пропуск кадра случаться, и.т.д. Резные кадры => чуть отличающиеся хэши.

    Чтобы убедиться что проблема не в этом — запишите несколько суток видео и прогоните на обоих ваших комплексах.
    Но, конечно, может и в других местах проблема возникать. Например вы используете разные видюхи для запуска (TensorRT под разные видеокарты имеет несколько разные алгоритмы оптимизаций, могут какие-то знаки после запятой изменяться).
  • 5 подходов к разметке данных для проектов машинного обучения
    +2
    Что-то очень поверхностная статья. С кучей очень спорных утверждений
    Однако, этот способ, скорее всего, подойдет только крупным компаниям с собственным штатом дата-аналитиков.

    Очень часто наоборот, правильная интеграция in-house разметки бывает основным продуктом. И её надо делать до разработки по DataScince.

    Очень часто переходы между разными вариантами разметки — весьма гладкие и непрерывные. Вообще, я вот тут чуть более подробно рассказываю, в том числе большое число вариантов которых тут нет — youtu.be/fwbHkVka3G4
  • Как запихать нейронку в кофеварку
    0
    Монументально!
    Вообще вопрос конвертации я даже не пробовал затрагивать, там всегда какой-то ад творится. И на эту тему очень мало информации опубликовано, особенно по потерям производительности при конвертации.

    Любопытно. А не проще ли было сделать обучение сразу на TensorFlow? Мне в таких ситуациях кажется, что перенос обучения зачастую проще чем перенос модели…
  • Как запихать нейронку в кофеварку
    0
    Ого. Прикольно. А используете через с++ или через python?
  • Как запихать нейронку в кофеварку
    +4
    Артур, привет! Спасибо!
    Это очень от фреймворка будет зависеть все же. И тут каждый раз надо будет разбираться заново. Для того же OpenVino (а значит всего того что на его базе) большинство известных слоёв конвертируются без проблем. Например вот или вот.
    Так же у них есть большой набор готовых моделей, которые автоматически конвертируются.
    Мне кажется, что это обусловлено тем, что в OpenVino не нужно лишний раз данные гонять в память видюхи и назад => они просто берут процессорную реализацию слоя и в целом она работает из коробки. NMS, Deformable Convolution, например, есть. Но будет ли это у них работать и на проце и на их GPU — не знаю. Вроде SSD мы как-то запускали на IntelNuc с GPU и там работало, значит NMS по крайней мере был.

    Если мы перейдём к какому-нибудь TensorRT, то там все ещё более-менее норм, но многое уже не из коробки. Но для того кто куду и c++ знает это вроде как не сложно. Я сам весьма поверхностно на ней умею писать. Коллега который хорошо разбирается — OpenPose'овскую обработку поз года три назад где-то за неделю перенёс на куду. Сетка инферелась на TensorRT, а потом напрямую кудой данные обрабатывались.
    Формальный список слоёв там достаточно уныл. Но для большинства распространённых есть уже готовые «плагины». Например NMS, или гайд по добавлению Deformable Convolution.
    Но с тем же tensorRT существует такая штука как tf-trt слои которые можно он исполняет на TensorRT, а то для чего реализации нет — на tensorflow. В целом, какой-нибудь SSD на JetsonNano давал усадку процентов на 20, если его через TfTRT было делать, но работал из коробки.

    Мне кажется что очень просто в OpenCV добавить новый слой. Но, боюсь, что для каких-то реализаций его нужно писать для каждого инференса свой писать.

    А вот чем дальше — тем будет хуже. Однажды мы переносили какую-то сетку на SnapDragon-овский сопроцессор для нейронок (ещё до того как TFlite был адекватен), и там не было даже слоя ADD. При этом его нельзя было добавить.
    И каждый раз для каждого фреймворка/каждой железки приходилось заново разбираться, если что-то редкое есть.

    В целом, обычно логика такая:
    1. Иногда слой можно выполнить на основном процессоре. Особенно это просто сделать если есть разделяемая память для процессора и GPU|TPU модуля
    2. Иногда готовые слои можно найти в интернете, может кто-то их уже написал
    3. Иногда можно подменить слой на что-нибудь ещё. Чаще всего это для ReLu работает хорошо
    4. Иногда можно что-нибудь подтьюнить в сетке и дообучить её уже в более простой конфигурации, где нет плохого слоя, но работает не всегда


    Но, реально, из того что я перечислил в статье — у большинства фреймворков я не знаю как слой добавить:) Для тех же TensorFlow.JS или ONNX.JS. Так что однажды когда я попал в ситуацию что что-то не сконвертилось, просто взял другую сетку ¯\_(ツ)_/¯
  • Как запихать нейронку в кофеварку
    0
    ONNX это лишь формат записи сети. ONNX может исполняться и через OpenCV и через OpenVino и через TensorRT. Сконвертировать из ONNX в любой другой формат — обычно не сложно.

    ONNX runtime собственно и инферит на оптимальном оборудовании (то что там используется базовый формат ONNX опять же не проблема). Там автоматически подключен и TensorRT и OpenVino и другие ускорители. В этом плане — он более всеобъемлющ чем чистый OpenCV. Так как в OpenCV нет и RockChip и AMD-шного инференса, и других приблуд именно для инференса.
    Но мне OpenCV ближе — так как я его понимаю лучше.
  • Создание камеры-ловушки с использованием Raspberry Pi, Python, OpenCV и TensorFlow
    +10
    Работали ли вы с камерами для Raspberry Pi?

    И даже писал не настолько халтурные статьи на Хабре (1, 2).
    Тут освещено от силы четверть процесса, не имеющего отношения к заголовку, на тему которого миллионы статей только на хабре (1,2,3,4,5, 6, 7, 8). Но в среднем статья воспроизводит любой базовый гайд с первой страницы гугла по настройке камеры.

    Ну блин, есть некоторая границы халтуры же. Я понимаю что перевод. Но ведь можно же такое не переводить, а хоть немножко погуглить хотя бы на том ресурсе где публикуетесь.
  • Nvidia представила новую версию одноплатного ПК Jetson Nano всего за $59
    +1
    Хорошо что у прошлого питание переделали. Там это было слабое место + очень логика не понятна (там можно было запитываться от мини usb, который по протоколу питания не тянул Nano). Но в целом стало лучше, надо бы в мой гайд по embedded платформам добавить.
  • Восстановление утраченных текстов с помощью современных технологий. Железо
    +2
    Монументально!
    Подборка методов очень крутая. Про большую часть не знал.
    Любопытно, что не увидел ни одного метода на базе МРТ. Его не используют так как разрешение плохое? Или он просто бессмысленный?
  • Одноглазый глубиномер
    +1
    Боже. Вообще растения — самый треш для 3D. Даже для хороших сканеров.
    Но если пробовать натянуть готовую модельку — то это наверное сильно проще. Мы часто для анализа параметров 3D объектов так делали. Но это сильно более стабильные объекты чем растения были.
  • Одноглазый глубиномер
    0
    Ну, там не всегда трассировка. Есть напрямую сетки которые в воксельный объем проецируют. Только вот у таких задач есть одна проблема — не понятно зачем на практике оно.

    На прошлом коллоквиуме новогоднем, который Лемпицкий устраивает, я общался с автором одного из State-of-art алгоритмов на тот период (к сожалению не помню как его звали, помню что из Германии группа). И у них это прямо проблема. Очень мало где реально нужны эти алгоритмы. Они смогли какую-то задачу придумать чтобы на практике попробовать, и это был большой прогресс.
    Но на практике проще либо использовать нормальный 3D на вход, либо использовать какой-нибудь SLAM алгоритм. Либо, если объект фиксированный, то использовать известную 3д модель, и её натягивать.

    Так что решил вообще не трогать этот сегмент.
  • Одноглазый глубиномер
    +3
    Класс. Для 2012 года прекрасно. То что я в 2010-2011 году запускал было сильно хуже.
    Но согласитесь, что тот же «Consistent Video Depth Estimation» — неплохой прогресс с тех пор?:)
  • Белорусский AI сервис опередил Google и Microsoft AI в распознавании автомобилей
    +17
    С учётом того что это первый пост автора — мне кажется это банально реклама.
    И вот обидно же. Белорусской фирме сейчас надо пиарить не приложение с подсчётом машин, а с подсчётом людей в толпе. Чтобы считать размер митингов. Тогда могли бы сколько угодно кривых сравнений делать.
  • RPi-няня
    0
    Мне кажется, что в любом случае, как бы хорошая модель не была — для детей её придётся дообучать. Слишком мало детей в обучающих датасетах.

    По поводу того что старая работала лучше — сейчас в OpenVino есть 3 или даже 4 разные модели для детекции лиц. И они на разные условия работы/разные скорости имеют. Так что может вы просто разные использовали.
  • RPi-няня
    +1
    Про OpenVino скажу лишь что когда он только появился — я пробовал его ставить и всё было сильно хуже. В последние разы когда ставил было как-то быстрее.
    Но я действительно не понимаю почему они не сделают нормальное тестирование. Почему нужно только на диск системный ставить — в упор не понимаю…

    С другой стороны, на мой взгляд, я не встречал ещё ни одной платформы, которая бы из коробки без единого бага работала. Может быть только хорошие Android и Ios телефоны предсказуемы.
    Следующая по качеству — Raspberry Pi 4-ая + OpenCV/Tf lite. Если ничего левого не ставить и использовать только стандартные сети — работает из коробки.
    Но не всегда производительности хватает.
  • RPi-няня
    0
    Спасибо. Ну, там всё несколько хитрее, если я правильно понял. Не всегда всё это дело ассоциированно именно с тем что что-то на лицо натянул. И совсем правильные системы должны сердцебиение контролировать (кстати, такие есть).

    Но у меня то цель была основная сделать детектор просыпания + немного развлечься, что в целом я успешно и провернул.
  • Склеиваем несколько фотографий в одну длинную с помощью компьютерного зрения
    +5
    Я не спорю, что включает:)
    Но всё же и RANSAK — это чисто логический алгоритм перебора гипотез и поиска оптимальной, а OpticalFlow, где нет нейронок — либо алгоритмы дифференциального анализа, либо опять же, какая-то логика, либо матан.
    В матчинге вы сами говорите что KNN, который сложно назвать ML.

    Так что в базовом пайплайне ни SVM ни Boost'инговых алгоритмов не вижу.

    Но я только к заголовку придираюсь, всё остальное — ок:)
  • Склеиваем несколько фотографий в одну длинную с помощью компьютерного зрения
    +10
    с помощью машинного обучения

    Но причём тут машинное обучение? И RANSAK и OpticalFlow — достаточно классические алгоритмы (Ок, OF можно сделать через нейронки, но тут это не рассмотренно). Плюс набор эмпирик чтобы всё попристойне выглядело.
    По заголовку я надеялся будет какой-нибудь очередной подход без RANSAK, типо этого.

  • Распознавание мяча в волейболе с OpenCV и Tensorflow
    +2
    Смотрите, VGG — это очень жирная архитектура. Плюс, ваш подход поиска мяча будет очень нестабилен как только камера попадёт в другой зал, как только будет меняться освещение, камера, форма игроков, и.т.д.

    Вашу задачу сильно проще решать через детекцию нейросетью + трекинг того что задетектированно. Сейчас существует очень много подходов которые это реализуют (более полно я их тут освещал). Скорее всего вам будет достаточно самого обычного Sort, который подключается одной строчкой.

    В качестве детектора действительно неплохо брать YoloV4, но он будет работать на хороших вычислителях. Если у вас слабое устройство, то легче использовать Tiny Yolov4. Про всё это дело хорошая статья на Хабре есть.
    Сейчас достаточно много неплохих архитектур, в целом с вашей задачей любая справиться.
  • Как работает Object Tracking на YOLO и DeepSort
    +4
    Норм статья. Только пара моментов:
    • DeepSort не для Object Tracking. Он для Human Tracking. Для трекинга других объектов надо переобучать ReID сеть. Но это не всегда возможно.
    • DeepSort имеет свой ряд проблем и особенностей. Часто можно использовать другие подходы трекинга, которые в той или иной ситуации лучше.
    • можно было ссылку на рабочие сорсы дать — github.com/ZQPei/deep_sort_pytorch

    В целом я всё это месяц назад в статье своей на хабре рассказывал.
  • Быстрый старт и низкий потолок. Что ждет молодых Data Science-специалистов на рынке труда
    0
    Я вот не понял. Задается вопрос «что ждёт». И нет ни одного ответа на эту тему. Ни по деньгам, ни по тому насколько нужны специалисты, и какие специалисты. Пардон, но даже я более обстоятельное видео недавно запилил —

    Если кто кликбейтнулся, и хоть какие-то оценки хочет)
  • Можно ли инвестировать в китайскую HUAWEI?
    +1
    Подвести мышку и кликнуть по ссылке, не?
    Ну, с другой стороны, чего можно ждать…
  • Можно ли инвестировать в китайскую HUAWEI?
    0
    Вы в тексте путаете доход с выручкой, а доллары с юанями. И все цифры не соответствуют официальным отчётам. Прямо флеш-рояль из ошибок собрали!:)
    1
    2
    3
    4
    5
  • Computer Vision. Подсчет клиентопотока
    +1
    Добрый день. Не советую использовать алгоритмы разницы фона. Это алгоритмы 15-20 летней давности. Уже лет 10 назад использовались куда более хитрые подходы. В своей статье про трекинг я их упоминал (predator, и.т.д.).
    За 12 лет работы с CV мы не видели ни одной задачи где бы такие алгоритмы стабильно зашли. Они нестабильны к любым изменениям условий, не работают для людей чей цвет сравним с фоном, и.т.д.