Pull to refresh

Comments 47

Интересно, но всё таки достаточно сложный процесс для обычных обывателей, которые хотят просто ввести свой проект

Я разработал нечто подобное, но назвал Капсула памяти, суть в том что в конце каждой сессии ты прописываешь триггер, в том же чате, и капсула обновляется учитывая сегодняшним доработки, сохраняя знания, опыт и контекст

Я написал статью здесь, жду когда пройдет модерацию.

Если кратко:

Капсула памяти Sh/AIDS v6.2 — это система сохранения и передачи контекста для ИИ, которая решает ключевую проблему «потери памяти» между сессиями(LLM).

Ключевые преимущества:

· Мгновенное восстановление контекста — ИИ сразу работает с вашими задачами, без повторных объяснений

· Экономия 90% времени — исключает рутину онбординга в каждом новом диалоге

· Персонализированные ответы — ИИ учитывает ваш стиль мышления, цели и предпочтения

· Масштабируемость — подходит для личного использования, командной работы и бизнес-процессов

· Повышение качества решений — за счёт полного контекста ИИ дает более точные и релевантные ответы

Основная польза: Превращает разрозненные диалоги с ИИ в непрерывный осмысленный процесс,где каждое взаимодействие строится на основе предыдущего опыта. Это особенно ценно для сложных задач, требующих долгосрочной работы: обучение, проектирование, анализ данных и карьерное развитие.

Не совсем то , всё-равно упрётесь в контекст лимит и компакт . Я держу ВСЕ логи диалогов - фул и компакт , в папках по датам для кпждого Агента , + актуализирую документацию под каждый суб-проэкт . Каждый Агент имеет личное хранилище с данными и Своей памятью . Тогда уже который месяц не имею абсолютно никаких нареканий об забывчивости AI LLM Claude .

Обязательно пришлите ссылки на свои статьи , любым доступным способом . Прям очень интересно !)

Интересно. Но еще более интересно, почему такую же фичу не запилил тот же Anthropic, где 500 сотрудников и миллиарды инвестиций - потому что выглядит как киллер-фича

Интересно будет ознакомиться

Ну это же мемори банк в его зачаточном состоянии

идея отличная, но есть немного дегтя сугубого имхо:
- заваливать LLM еще одной кучей тулов через MCP - путь к запутыванию модели, ей и так не просто если прицепили Jira, Github и еще парочку.
- про rerank я что-то не нашел в статье ничего
- использование простеньких моделей для embedding - медленно, печально, слабо и частая зарядка ноута :), а хороших - нужен хоть какой то GPU с VRAM (или mac studio m3).
- скорость отработки через mcp - имхо, это не нативно юзать фреймворки а-ля LangChain/Graph иже с ними. Но, конечно, статья не про написание своего агента, а про юзание готового с расширением обвески-фичей. Тут наверное идея правильная от безысходности. Спасибо за идею, будем думать.


Странно, что такие решения до сих пор приходится делать самим на коленке. Там все грозятся, что скоро программисты будут не нужны, но при этом ИИ-агент не может сам найти, что нужно поправить в кодовой базе из тысяч файлов, приходится дотошно расписывать что и где менять, в итоге проще самому сделать, чем за руку водить такого агента. Но вот когда разберутся с этой проблемой, тогда скорость разработки сильно вырастет.

Идея правильная. Называется это вроде codebase indexing и используется во многих агентах: Cursor, Roocode, CodeGPT, Sourcegrah Cody, MCP Agents, Trae, refact.ai. Cody использует GraphRAG вместо обычного векторного поиска. Список не полный!

В начале статьи приводится пример с просьбой добавить метрику. Как это решение поможет решить запрос с написанием кода? Получается вторым этапом надо было бы найти все релевантные файлы и добавить в контекст модели? Другим MCP? сервером?

Все очень интересно, но сервер зависает после запуска. Может я что то не доделал, но после выполнеия шагов из README он ни на что не реагируе (только на Ctrl+C)

увидел ваш вопрос в Issues на гитхаб - возьму в работу

  • спасибо что подсветили ) - и напишите плиз что у вас за окружение windows |linux|mac какие версии node ползуете

    - обязательно поможем

кста , проверьте доки - возможно там найдете ответы

и какой агент вы используете ?

Для полноценной генерации кода программ необходимо полное понимание нейросетью смысла действий каждой команды, плюс подробные знания языка программирования, библиотек фреймворков, API и много ещё чего. Простым RAG и MCP отделаться не получится. С моей точки зрения LLM могут выступить базами всех этих сложных знаний но саму генерацию кодов доверять трансформеров нельзя. Как минимум нужны системы точного логического вывода типа Prolog и некие средства автоматической трансляции, компиляции, исполнения кода для верификации и коррекции. Наверно удобно строить такую систему на базе LLVM проекта. Представление языка программирования и самой задачи может быть оформлено в виде неких фактов и правил, вывода типа экспертной системы а генерация кода, как поиск последовательности операций логического выводов.

Сегодня была новость, что ИИ агенты решили все задачи в международной олимпиаде по программированию (12 из 12) и сделали это лучше людей. Так что со знаниями и генераций кода у них хорошо. Проблемы как раз с интеграцией в текущий код, вот автор статьи и пытается искать решение. Ну и плюс пока это еще инструмент, а не полная замена разработчика.

Если честно я очень скептически отношусь к способностям точного логического вывода текущего поколения нейросетей. Все эти задачи математических олимпиад заранее известны и наверняка использованы для обучения. Я точно знаю, что есть класс специальных вопроса на логику которые ставят в тупик любую нейросеть и преодолеть это пока нельзя. Я думал над генерацией полноценного кода и всё-таки считаю, что абсолютно необходима интеграция трансформеров с системами логического вывода классического ИИ. Это так же необходимо как две половины нашего мозга: логическая и ассоциативная.

А зачем нужна точная генерация кода? Почти все языки программирования позволяют решить задачу 3-10 разными способами. Разные люди выбирут разные варианты, потом будут долго спорить на код ревью какой самый верный, при этом все рабочие. Так и с нейросетью, может даже у нее где-то будет не рабочий код, но дальше либо сама через тесты поправит, либо вручную, в любом случае это сильно может ускорить разработку.

А для полной замены возможно вообще LLM как трансформера не достаточно. Точно нужна будет верификация через компилирование и запуск тестов. Но до этого пока далеко, в ближайшие годы и без полной замены будут существенные изменения.

Я имел в виду точное кодирование в логическом смысле. Оптимизация кодов это отдельная тема и она в принципе решается алгоритмическими методами. Я видел некоторые коды, генерируемые LLM . Они просто чудовищны и разумеется не работают. Если у вас есть реальные проекты ИИ кодогенерации, мы можем попробовать сотрудничать. Тема актуальная и запустить какой либо стартап скорее всего будет не сложно. Спасибо и Удачи!

Странно) У меня код работает использовал локально и онлайн: Qwen 2.5-3 Coder, Qwen Code, Gemeni CLI. Местами правда по химичил с системной ролью, методами и алгоритмами.

Есть разные коды, разных задач. Стандартные алгоритмы на GitHub позволяют обучить нейросети, а шаг влево, вправо или вообще что то новое и GPT пасует.

Copilot хорошо справляется с рутиной промышленного кодинга, где большая часть работы это решение как раз типовых задач - уровня перекладывания джейсонов.

Часть проблем с логикой снимается при помощи классических инструментов статического код анализа и тестов. Агенты получают обратную связь и за несколько итераций выдают валидный код (ну либо не выдают, что только периодически случается).

Да я то согласен, что прогресс есть и ИИ автокодинг движется в правильном направлении но имел в виду общую проблему нейросетей с рассуждениями. Они пока очень не надежны. Решают только простейшие задачи и не обладают полноценным дедуктивным логическим выводом. Это общая беда всех генеративных трансформеров + галлюцинации. Я категорический поборник интеграции нейрокомпьютинга и классических методов логического вывода ИИ.

Согласен, галлюцинации и разные глупости это обратная сторона креативности - творческие люди тем же страдают. С математической логикой проблема ещё в том, что их на самом деле не одна, а много - в итоге при одинаковых вводных можно получать абсолютно разные результаты.

С математикой я часто использую хак через кодинг: вместо решения задачи напрямую, прошу сеть сгенерировать программу, которая посчитает и выдаст ответ. Вероятно, они могут генерировать код и на Prolog?

я экспериментировал с Google Gemini.Модель генерирует только самые простейшие коды на Prolog но может быть очень полезна для представления фактов и не сложных правил из баз знаний LLM. Саму постановку маломальский сложной задачи в виде кода нейросеть не сгенерит.

Попробовал ваше решение, пока начало пути, не юзабельно когда в проекте зоопарк языков. Остаюсь пока на sourcebot, он крутится также локально, есть mcp

Выглядит интересно, довольно просто локально развертывается с подключением к lm studio. А можете вкратце описать для каких кейсов используете?

быстрые ответы на вопросы в старых и больших монолитах и малоизвестных мне проектах на которых я каждый день не кодирую, но так или иначе нужны в работе

Эм... Разве не проще поставить https://lmstudio.ai/,
скачать любимую модель для кода и Embedding модель например Nomic, которая как раз занимается индексированием файлов проекта.

На вкладке «Разработка» запустить в режиме сервера, в Settings проставив галочки, стартануть нужные ии модели.

В любимой IDE поставить расширение наподобие https://www.continue.dev/, добавить нового провайдера ИИ в лице LM-Studio.

Среда разработки с ИИ, знающим, как устроен проект, готова.

Спасибо , не знал про такие возможности . Обязательно попробую

Можно больше одного агента подцепить и заставить работать как ансамбль, ACP в помощь, а уже к модели MCP. Мультиагентные системы это то к чему придем рано или поздно.

Попросить LLM написать для нас код стало так же естественно, как гуглить ошибку.

Нет.

попытался покрутить, но уперся в

"method": "find_similar_code",

"error": "Failed to initialize embedding model: TypeError: this.hashText is not a function"

То же самое, нода 20 стоит, все зависимости проапгрейдил (как я понял нужно зайти в ~/.npm/_npx/...)

Хороший - зрелый продукт. Спасибо что подсветили - если бы знал - свой не создавал )))

Sign up to leave a comment.

Articles