Комментарии 11
Да, учитывается, поэтому и были взяты в качестве источников новости от условных «демократов» и «республиканцев». В нашем случае можно сказать, что это РИА и FB, и да в нашем случае действительно выяснилось, что есть темы где и те и другие позитивно воспринимают новость. А есть темы, где взгляды расходятся — собственно по такому принципу и формируется выборка для обучения.
А почему не использовали spaCy-Stanza для работы с русскоязычной моделью?
А почему всё на нейронках? Почему не ансамбль случайного леса? Реже потребовалось бы переобучать.
Возможно реже, но не исключило бы переобучения совсем. И при таком подходе получаем — внедрять сложнее(меньше компетенции и готовых инструментов), а поддерживать примерно — также – все равно надо готовить инфраструктуру для переобучения и имплементации актуализированных моделей. В чем выгода тогда?
Благодарю за описание проекта.
Я новичок в NLP. Для своего проекта использовал готовые модели Summarizer, NER и Sentiment.
Summarizer (transformers, facebook-bart) вытаскивает суть довольно аккуратно, пользователи довольны.
А вот NER (spacy en_core_web_sm) и Sentiment (transformers, twitter roberta) требуют работы.
Постепенно пытаюсь разобраться, как натренировать NER и Sentiment. Ваш проект крайне полезен.
Я новичок в NLP. Для своего проекта использовал готовые модели Summarizer, NER и Sentiment.
Summarizer (transformers, facebook-bart) вытаскивает суть довольно аккуратно, пользователи довольны.
А вот NER (spacy en_core_web_sm) и Sentiment (transformers, twitter roberta) требуют работы.
Постепенно пытаюсь разобраться, как натренировать NER и Sentiment. Ваш проект крайне полезен.
Я наверное что-то упустил…
А когда это сентимент анализ и рекомендации перешли в категорию «понимать»?
А когда это сентимент анализ и рекомендации перешли в категорию «понимать»?
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Как мы ИИ учили новости понимать