Comments 5
Очень хорошо всё описано
Спасибо за статью. Очень интересно и подробно все расписано
А можно использовать json или маркдаун скрытый в чате, что бы его не засорять, и еще можно SQL лайтовую прикрутить, поднять сервак на fastapi и пусть базу обходит по запросу из чата, от самой ллм.
Sign up to leave a comment.
Маленький LLM-чат на Python с Ollama и LiteLLM. Часть 3: добавляем историю сообщений и контекст