Комментарии 2
Обычно LLM может самостоятельно найти все сущности в тексте, зачем создавать разметку для NER'а? Это экономия ресурсов, что бы обучить мелкую модель и разгрузить большую или тут есть еще какая-то мотивация?
Спасибо за вопрос!
Да, именно так. Своего рода дистилляция получается. В основном, мы обучаем более легкую и простую модельку, которая будет работать быстрее и использовать меньше ресурсов, чтобы сэкономить.
Впрочем, для некоторых специфичных кейсов (медицина, юриспруденция и т.п.) может еще быть так, что LLM будет хуже справляться, чем отдельная моделька с отдельно собранной специфичной разметкой. Но в таком случае и разметка от LLM будет только заготовкой. Так что все равно придется прилично потрудиться над разметкой (но небольшое ускорение возможно, полагаю). Но это скорее специфичный случай, основной вариант я описал выше.
Разметка данных с использованием LLM