Комментарии 2
Тут не хватает подробностей, например, как именно происходит сопоставление 3D‑модели с выявленным контуром свиньи. То, что технология классная и поднимает такие‑то показатели на столько‑то процентов — это понятно, для этого всё и делается. Но хочется именно технические подробности узнать :)
Ну то есть вот у нас 2D‑картинка, мы скормили её ИИ — получили контур свиньи, далее, как я понимаю, данные направляются к другому ИИ, распознающему ключевые точки этой свиньи (лапы + голова + туловище) в 3D, далее 3D‑модель с помощью скелетной анимации и/или инверсной кинематики сопоставляется с этими ключевыми точками. А как, при этом, происходит определение массы? Есть какая‑то универсальная «анимация надувания свиньи», которая соответствует изменению формы свиньи когда она набирает вес, и её просто прогоняют до тех пор, пока контур сопоставленной 3D модели не будет больше всего совпадать с контуром того, что было выявлено на 2D картинке? А далее просто берётся объем и/или номер кадра этой «анимации надувания» и умножается на какой‑то коэффициент? И всё это на каждом шаге конвейера обработки обмазываем толстым слоем всяких удалятелей шума, подавителей всплесков и отсеивателей ошибок, и всё на CUDAх и видеокартах, чтобы было быстро?
Я просто фантазирую, как бы я это делал, но тут очень интересно было бы почитать про вот эту, сделанную по факту, уже реализованную на практике технологию. В допустимых коммерческой тайной пределах, конечно же.
Как происходит идентификация свиней ? Если какая-то свинья набирает массу с аномальной скоростью, алерт приходит с точностью до камеры и времени или с точностью до id свиньи ?
Цифровой клон свиньи — как фермы становятся умнее