Когда генерируем текст, то мы можем исходный текст заметно испортить, ведь помимо запятых надо генерировать еще и обычные токены. Мы пробовали обучить генеративные модели (MT5, GPT), но их и долго обучать, и дорого, и весят они прилично, а результата считай и не было. Идея была в том, чтобы модель была максимальна доступна, проста и эффективна.
Спасибо!
1. Мы сравнивали с этой нейронкой, которая просто пофайнтюненный БЕРТ, результаты в конце текста. Если Ваш вопрос «делали ли мы сами просто пофайнтюненный БЕРТ», то нет :) Мб когда-нибудь сделаем более легкий вариант нейронки. Или можете сами сделать PR в репозиторий ;)
2. github.com/sviperm/neuro-comma#production-usage — там конечно чуть больше чем 2 строчки, надо скачать модельку, распаковать и создать докер конетйнер. Поднимается FastAPI сервер с моделькой внутри.
1. Мы сравнивали с этой нейронкой, которая просто пофайнтюненный БЕРТ, результаты в конце текста. Если Ваш вопрос «делали ли мы сами просто пофайнтюненный БЕРТ», то нет :) Мб когда-нибудь сделаем более легкий вариант нейронки. Или можете сами сделать PR в репозиторий ;)
2. github.com/sviperm/neuro-comma#production-usage — там конечно чуть больше чем 2 строчки, надо скачать модельку, распаковать и создать докер конетйнер. Поднимается FastAPI сервер с моделькой внутри.