Комментарии 12
Так и чем в итоге ваша нейросеть занимается? Автоматическая категоризация тикетов?
судя по статье-повышением некой точности
Так почему бы тогда не использовать просто библиотеку transformers? Там есть и работа с TensorFlow, и простое дообучение BERT-моделей, в том числе RuBERT.
Для классификации узкоспециализированных обращений обычно хватает простого эмбеддинга. Даже если нужно, например, определять сходство запроса с вопросом из базы знаний.
Мы пробовали предобученный BERT от Google, результат был слабым по точности. К тому же такая модель слишком ресурсоёмкая по памяти, учится неприемлемо долго (если не покупать TPU). В итоге у нас получилась более лёгкая и точная модель, заточенная на предметную область. На сложных предметных областях со специфичными текстами связка «предобученная на больших корпусах обычного текста модель + дообучение на специфике» работает плохо.
Свёрточные нейросети отвечали заданным требованиям. Выбор был остановлен именно на них.
Необходимую точность показывали только модели типа GPT и BERTИнтересно, с каких пор трансформеры стали относится к сверточным архитектурам?
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Как мы выбирали библиотеку машинного обучения для работы с естественным языком