User
Спасибо за статью и модельку в хабе. Собственно попытался использовать Вашу модель "evilfreelancer/ruGPT-3.5-13B-lora", но столкнулся сначала с нехваткой памяти - поменял load_in_8bit=True на load_in_4bit=True. После этого получил следующую ошибку:
Спасибо за статью и модельку в хабе. Собственно попытался использовать Вашу модель "evilfreelancer/ruGPT-3.5-13B-lora", но столкнулся сначала с нехваткой памяти - поменял load_in_8bit=True на load_in_4bit=True. После этого получил следующую ошибку: