Comments 7
Ну представили и что ? Вы хоть одну модель для русского языка укажите...
Можно его использовать для классификации документов? И насколько он хорош по сравнению с DistilBRRT ?
Вот похожей пример на классической архитектуре БЕРТА: https://github.com/Verbasik/ML_projects/tree/main/Classification_of_text
Думаю, что modernBERT может справиться лучше.
Насколько хорошо? С архитектурной стороны в любом случае лучше... 😁
Похоже, LLM участвовала в создании статьи. Тема интересная, но читать довольно мучительно
Знаете, когда люди говорят, что мои обзоры "просто написаны LLM", это всё равно, что сказать хирургу: "Да вы не лечите, у вас просто хороший скальпель!"
В мире, где объем научной информации удваивается каждые несколько лет, отказываться от таких инструментов — это всё равно что настаивать на счетах вместо калькулятора. Использование LLM не делает нас менее настоящим ученым, а скорее показывает, что мы умеем эффективно работать с современными технологиями. В конце концов, важен результат и его ценность, а не то, какой карандаш вы использовали для записи своих мыслей.
Спасибо Автору за интересную статью, на хабре таких статей очень мало. К вопросу об участии LLM в написании статей. Фразу """Короче говоря, всякий раз, когда вы видите в развертывании модель только для декодера, существует разумная вероятность того, что модель только для кодера также является частью системы. """ читал несколько раз и попросил Qwen перевести на русский, вот что получилось:
Иными словами, если в системе используется модель только для декодера, велика вероятность, что где-то в этой же системе применяется и модель только для кодера.
Или ещё проще:
Если вы видите модель только для декодера, скорее всего, модель только для кодера тоже участвует в системе — просто не так заметно.
Или нейтрально и ясно:
На практике, когда в системе используется декодерная модель, часто вместе с ней задействована и кодерная модель, даже если это не очевидно.
Преемник BERT: ModernBERT