Комментарии 2
Привет! Правильно ли понимаю, что упомянутый в конце FRED-T5 от Сбера - это отсылка на их фреймворк SAGE? Если да, то мне кажется, будет действительно интересно посравнивать разные получившиеся решения. Я бы предложил уделить побольше времени типам различных ошибкок, т.к. вы сами пишите:
Следует учитывать, что ошибки в текст вносились целенаправленно, следствием чего могла стать их неестественность и «нечеловечность»
Наверное здесь есть смысл поизучать Augmentex, который лег в основу SAGE (если вдруг не видели) + у ребят интересные подходы к имитации человеческих ошибок с хорошей статьей на Диалог конференцию
Привет!
Спасибо за дельный совет. Изучение разных типов ошибок и их генерация для обучения моделей - это важная часть дальнейшей работы. Изначально, наша работа велась без учета опыта команды Сбера (летом 2023 года), когда результаты SAGE еще не были опубликованы - по крайней мере, мне не было о них известно. Следует признать, что разработчики SAGE продвинулись значительно дальше и их опыт должен стать хорошим подспорьем в будущем. В том числе, отсылка к FRED-T5 вызвана желанием опробовать и перенять положительный опыт коллег.
NLP для поиска грамматических ошибок