Обновить

LoRA не помогла: как мы дообучали Mistral 7B на русском и что в итоге сработало

Уровень сложностиСредний
Время на прочтение6 мин
Охват и читатели7K
Всего голосов 3: ↑3 и ↓0+4
Комментарии4

Комментарии 4

в первом же требовании (и видимо самом важном) указано легкость в масштабировании: какой компонент на вашей архитектурной схеме это требует?

"Если вы хотите прокачаться и технически, и продуктово, то обеими руками рекомендую свою магу...." Что такое "магу" ? "книгу" ?

Привет! Имелась в виду магистратура AI Talent Hub - это мы :)

Почему выбрали Mistral, а не Qwen? Он вроде как лучше русский понимает

Двухэтапное обучение не рассматривали?

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации