Search
Write a publication
Pull to refresh
8
0
Send message

интересно! а почему решили остановиться на Seldon, а не KServe?

Привет! Нет, это никак не связано с особенностями реализации, результат получается такой по ориентации, какие были картинки в обучающей выборке. Скорее первая картинка - это наглядный обработанный и перевернутый пример, чтобы показать и сориентировать, что это за участок на карте. А вторая картинка - данные в том виде, в котором они находятся в датасете

p.s. "трешхолд" можно так перевести, но, кажется, это уже некоторая устоявшаяся лексика как минимум в ml кругах, хотя спорить не буду

Привет! Правильно ли понимаю, что упомянутый в конце FRED-T5 от Сбера - это отсылка на их фреймворк SAGE? Если да, то мне кажется, будет действительно интересно посравнивать разные получившиеся решения. Я бы предложил уделить побольше времени типам различных ошибкок, т.к. вы сами пишите:

Следует учитывать, что ошибки в текст вносились целенаправленно, следствием чего могла стать их неестественность и «нечеловечность»

Наверное здесь есть смысл поизучать Augmentex, который лег в основу SAGE (если вдруг не видели) + у ребят интересные подходы к имитации человеческих ошибок с хорошей статьей на Диалог конференцию

А не подскажите источник таких картинок? Может есть какая-нибудь стоящая литература именно с пояснениями на матричном уровне

Интересный подход, спасибо за ответ!

Спасибо за статью, есть вопрос скорее к технической реализации лосса. Как я понимаю, в logloss подаются логиты (если речь о torch) и метки классов, а что идёт в MSE? Речь идёт о сравнении логитов старой и новой моделей или смотрят на proba (но тогда просто разница двух вероятностей всегда будет < 1, а при возведении в квадрат ещё ближе к 0, или множитель альфа как раз и решает эту проблему?)

Спасибо за пояснение и ссылку на выступление. Успехов вам в дальнейшей разработке )

Большое спасибо, очень интересная статья и задача! Круто, что большой упор делается ещё и на оптимизацию инференса модели

Правильно ли понимаю, что решение сводится к генерации класса слова для каждого жеста (слово в начальной форме), а дальше последовательность из полученных классов как-то фильтруется от повторов и получается дословный перевод? Если это так, то были ли какие-нибудь попытки полученную последовательность адаптировать в уже "наш" письменный язык с учётом корректной грамматики, например, прикрутив ещё одну модель seq2seq? + интересно, как вы обрабатываете слова, которые не встречались в трейне, для них есть отдельный класс или они как-то все равно разбиваются по фреймам, а модель что-то пытается для них

Information

Rating
Does not participate
Location
Санкт-Петербург, Санкт-Петербург и область, Россия
Works in
Date of birth
Registered
Activity

Specialization

ML Engineer, MLOps
Junior
Golang
Pytorch
Kubernetes
Python
Git
Docker
CI/CD