Search
Write a publication
Pull to refresh
-8
-16
Send message

Если коротко, модель не помнит ничего автоматически между разными чатами.

Простое решение - используйте функцию "Чат с документами" (RAG) LM Studio. Сохраняйте важные части прошлых разговоров в текстовые файлы и прикрепляйте их к новым чатам. Или вручную копируйте и вставляйте нужную информацию в начале нового диалога.

Если вы готовы выйти за рамки только графического интерфейса LM Studio, вы можете интегрировать его с инструментами и фреймворками, созданными для управления памятью больших языковых моделей (LLM):

LangChain, LlamaIndex и т.д.: Эти фреймворки на Python предоставляют абстракции для создания сложных систем RAG (Retrieval-Augmented Generation). Вы можете использовать их для:

  • Обработки и встраивания ваших прошлых разговоров в векторную базу данных.

  • Создания "агентов", которые автоматически извлекают соответствующую информацию из этой базы данных на основе ваших новых запросов.

  • Управления циклом "резюмирования", где старые разговоры периодически суммируются и добавляются в долгосрочное хранилище памяти.

Если хотите установить эту модель на линукс (при использовании GUI), то возьмите LmStudio: https://lmstudio.ai/download. Скачайте версию - внутри она такая же, как на Mac.

А если хочется зайти через терминал, то я попозже напишу статью про работу с разными LLM используя Ollama. Была похожая статья про Deepseek, но более расширенно.

Исследования показывают, что разные поколения действительно по-разному относятся к повышениям и увольнениям

Information

Rating
Does not participate
Works in
Registered
Activity