Comments 3
А есть возможность подключить локальную модель?
Я думаю если установить соответствующий package должно работать. Но нужно убедиться что можель подходящая. У меня пока ещё руки не дошли попробовать, но если кто-то ещё это задокументирует я буду безмерно благодарен. Оллама package от langchain https://www.npmjs.com/package/@langchain/ollama
Работает, но не со всеми.
Работает - llama3-groq-tool-use
детали тут
https://github.com/andruhon/gaunt-sloth-assistant/discussions/107
Sign up to leave a comment.
Gaunt Sloth — Open Source AI CLI утилита