Как стать автором
Обновить
20
2

Пользователь

Отправить сообщение

Учим ламу говорить на руcском

Уровень сложностиПростой
Время на прочтение5 мин
Количество просмотров6.8K

Тут я рассказывал как можно использовать магию низкорангового разложения (Low Rank Adaption) матриц для того что бы легко дообучать большие текстовые модели. Сейчас же я напишу свою реализацию LoRA используя PyTorch, переведу весь датасет alpaca-cleaned (на котором училась альпака - языковая модель родом из стенфорда) на русский язык, используя взломаный яндекс переводчик, и наконец "скормлю" его языковой модели, что бы она наконец смогла понимать русский язык.

Советую ознакомится с кратким теоретическим описанием происходящего (хотя вроде как такие просьбы не работют()

Читать далее
Всего голосов 13: ↑13 и ↓0+13
Комментарии12

Информация

В рейтинге
1 236-й
Зарегистрирован
Активность