Comments 3
А нельзя было написать ма-а-а-аленькую прослоечку на FastAPI или Flask которая принимает запросы по одному порту, меняет в запросе имя модели и шлёт запрос ollama, получает обратно ответ, меняет его если необходимо и шлёт обратно?
Наткнулся у вас в соседней статье про сам affine цитату
AI тяжело настроить с Ollama, однако немного магии, и даже это удалось реализовать.
А каких-то мануалов по подключению найти не могу пока что. Пробовал настроить через API openAI, но либо лыжи не едут, либо я читать не умею. Есть короткий туториал или хотя бы направление куда копать нужно будет?
Sign up to leave a comment.
Как подключить AFFiNE к Ollama?