Comments 6
Спасибо познавательно, но как дело доходит до
"OPENAI_API_KEY", интерес угасает...
Вы можете запустить локальную версию LLM , например через ollama. Langchain умеет с ней работать.
Спасибо, но дело не в этом, сейчас практически все статьи сводятся к берем OPENAI_API_KEY ....
а хотелось бы чего-то:
- Разворачиваем ollama
- Подготавливаем данные для тренировки модели на своих данных
- Обучаем на своих данных
......
Хорощая статья, а можете сделать чат-помощника на JavaScript?
Sign up to leave a comment.
Как написать своего нейросотрудника?