Как стать автором
Обновить

Комментарии 6

Спасибо познавательно, но как дело доходит до

"OPENAI_API_KEY", интерес угасает...

Вы можете запустить локальную версию LLM , например через ollama. Langchain умеет с ней работать.

Спасибо, но дело не в этом, сейчас практически все статьи сводятся к берем OPENAI_API_KEY ....
а хотелось бы чего-то:
- Разворачиваем ollama
- Подготавливаем данные для тренировки модели на своих данных
- Обучаем на своих данных
......

Стоимость у обучения какая? Оно вообще возможно локально? Недавно тут пробегала статья с дообучением маленькой ламы для казахского языка и там упоминались гигансткие видеокарты с 80гб памяти у каждой.

Хорощая статья, а можете сделать чат-помощника на JavaScript?

Llama_index, на питоне и жс работает. Хорошая документация

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории