Комментарии 6
Мы решили экспериментировать дальше. Вытащили из обученной сети результирующие векторы по всем нашим изображениям, затем искали ближайшие векторы к картинке-запросу.
Правильно ли я понимаю, что вы взяли вектора с предпоследнего слоя классифицирующей сети? Использовали какие-то доп лоссы - sphere-loss или cosine-loss для компактного сбора векторов в гиперпространстве?
Все так, вектора взяли с предпоследнего. В качестве лосса был ArcFace
, но на удивление обычный CrossEntropyLoss
тоже давал хорошие результаты, но с условием если искать ближайшие не по косинусу, а по L2
Доклад супер крутой! Но почему не приложили видео с ютюба?!
В статье сильно подробнее расписано обо всем. Плюс текст поправили.
Но если интересно, то вот видео с датафеста – https://youtu.be/_YHa7zIAr_c
+ видео про MLops у нас – https://youtu.be/hAeqV8LPXZs
Нечего надеть? Computer Vision в помощь