Здравствуйте! У меня есть датасет из 268 маленьких txt файлов, общий вес не доходит до 90 мб. Я тоже использую FAISS, но embedding OpenAI слишком медленный. Когда я тестировал с embedding-ими OpenAI показал лучший результат, в то время как другие даже близко не нашли. Как можно ускорить, или же посоветуйте другой хороший embedding?
Могли бы русский датасет использовать для приличия, и дополнительно: как сохранить, объединить модель, загружать обученную модель и тд.
Не вижу разницу между вашей статьей и https://www.datacamp.com/tutorial/llama3-fine-tuning-locally
Здравствуйте! У меня есть датасет из 268 маленьких txt файлов, общий вес не доходит до 90 мб. Я тоже использую FAISS, но embedding OpenAI слишком медленный. Когда я тестировал с embedding-ими OpenAI показал лучший результат, в то время как другие даже близко не нашли. Как можно ускорить, или же посоветуйте другой хороший embedding?