И нейроны на 8,16, и т.д. - что здесь имелось ввиду?
А по теме хотел спросить - deepspeech и Jasper - уже далеко не хайповые архитектуры, какие Вы ещё пробовали ставить эксперименты. Круто было бы посмотреть на сравнительную таблицу по качеству/скорости на Ваших данных.
Добрый день. Можете пояснить какие проблемы там были обнаружены?
На HF Hub у вас лежит только файл модели. Это правильно? Разве там не должен быть рядом сложен vocab и конфиги для токенайзера?
??подход децентрализации в обучении давно просился, это отличный вектор, спасибо!
Проверьте, пожалуйста, текст на орфографию.
Инкодеры - Энкодеры.
И нейроны на 8,16, и т.д. - что здесь имелось ввиду?
А по теме хотел спросить - deepspeech и Jasper - уже далеко не хайповые архитектуры, какие Вы ещё пробовали ставить эксперименты. Круто было бы посмотреть на сравнительную таблицу по качеству/скорости на Ваших данных.
На каком железе обучали? Сколько дней?
Илья, спасибо! Особенно полезно про фишку соединения TextRank + энкодеров. Жду следующей статьи про метрики!
Давид, спасибо за проделанный труд! Обязательно протестирую на какой-нибудь задачке??
Интересно попробовать её обучить для восстановления пунктуации и больших букв. Насколько я помню там 512 токенов на входе можно подать?
При распознавании голосовых сообщений в текст не используете денойзер?