Как стать автором
Поиск
Написать публикацию
Обновить

Комментарии 2

Обычно LLM может самостоятельно найти все сущности в тексте, зачем создавать разметку для NER'а? Это экономия ресурсов, что бы обучить мелкую модель и разгрузить большую или тут есть еще какая-то мотивация?

Спасибо за вопрос!

Да, именно так. Своего рода дистилляция получается. В основном, мы обучаем более легкую и простую модельку, которая будет работать быстрее и использовать меньше ресурсов, чтобы сэкономить.

Впрочем, для некоторых специфичных кейсов (медицина, юриспруденция и т.п.) может еще быть так, что LLM будет хуже справляться, чем отдельная моделька с отдельно собранной специфичной разметкой. Но в таком случае и разметка от LLM будет только заготовкой. Так что все равно придется прилично потрудиться над разметкой (но небольшое ускорение возможно, полагаю). Но это скорее специфичный случай, основной вариант я описал выше.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий