All streams
Search
Write a publication
Pull to refresh

Comments 46

Интересно, но всё таки достаточно сложный процесс для обычных обывателей, которые хотят просто ввести свой проект

Я разработал нечто подобное, но назвал Капсула памяти, суть в том что в конце каждой сессии ты прописываешь триггер, в том же чате, и капсула обновляется учитывая сегодняшним доработки, сохраняя знания, опыт и контекст

Я написал статью здесь, жду когда пройдет модерацию.

Если кратко:

Капсула памяти Sh/AIDS v6.2 — это система сохранения и передачи контекста для ИИ, которая решает ключевую проблему «потери памяти» между сессиями(LLM).

Ключевые преимущества:

· Мгновенное восстановление контекста — ИИ сразу работает с вашими задачами, без повторных объяснений

· Экономия 90% времени — исключает рутину онбординга в каждом новом диалоге

· Персонализированные ответы — ИИ учитывает ваш стиль мышления, цели и предпочтения

· Масштабируемость — подходит для личного использования, командной работы и бизнес-процессов

· Повышение качества решений — за счёт полного контекста ИИ дает более точные и релевантные ответы

Основная польза: Превращает разрозненные диалоги с ИИ в непрерывный осмысленный процесс,где каждое взаимодействие строится на основе предыдущего опыта. Это особенно ценно для сложных задач, требующих долгосрочной работы: обучение, проектирование, анализ данных и карьерное развитие.

Не совсем то , всё-равно упрётесь в контекст лимит и компакт . Я держу ВСЕ логи диалогов - фул и компакт , в папках по датам для кпждого Агента , + актуализирую документацию под каждый суб-проэкт . Каждый Агент имеет личное хранилище с данными и Своей памятью . Тогда уже который месяц не имею абсолютно никаких нареканий об забывчивости AI LLM Claude .

Обязательно пришлите ссылки на свои статьи , любым доступным способом . Прям очень интересно !)

Интересно. Но еще более интересно, почему такую же фичу не запилил тот же Anthropic, где 500 сотрудников и миллиарды инвестиций - потому что выглядит как киллер-фича

Интересно будет ознакомиться

идея отличная, но есть немного дегтя сугубого имхо:
- заваливать LLM еще одной кучей тулов через MCP - путь к запутыванию модели, ей и так не просто если прицепили Jira, Github и еще парочку.
- про rerank я что-то не нашел в статье ничего
- использование простеньких моделей для embedding - медленно, печально, слабо и частая зарядка ноута :), а хороших - нужен хоть какой то GPU с VRAM (или mac studio m3).
- скорость отработки через mcp - имхо, это не нативно юзать фреймворки а-ля LangChain/Graph иже с ними. Но, конечно, статья не про написание своего агента, а про юзание готового с расширением обвески-фичей. Тут наверное идея правильная от безысходности. Спасибо за идею, будем думать.


Roocode с codebase indexing делает это

Странно, что такие решения до сих пор приходится делать самим на коленке. Там все грозятся, что скоро программисты будут не нужны, но при этом ИИ-агент не может сам найти, что нужно поправить в кодовой базе из тысяч файлов, приходится дотошно расписывать что и где менять, в итоге проще самому сделать, чем за руку водить такого агента. Но вот когда разберутся с этой проблемой, тогда скорость разработки сильно вырастет.

Идея правильная. Называется это вроде codebase indexing и используется во многих агентах: Cursor, Roocode, CodeGPT, Sourcegrah Cody, MCP Agents, Trae, refact.ai. Cody использует GraphRAG вместо обычного векторного поиска. Список не полный!

В начале статьи приводится пример с просьбой добавить метрику. Как это решение поможет решить запрос с написанием кода? Получается вторым этапом надо было бы найти все релевантные файлы и добавить в контекст модели? Другим MCP? сервером?

Все очень интересно, но сервер зависает после запуска. Может я что то не доделал, но после выполнеия шагов из README он ни на что не реагируе (только на Ctrl+C)

увидел ваш вопрос в Issues на гитхаб - возьму в работу

  • спасибо что подсветили ) - и напишите плиз что у вас за окружение windows |linux|mac какие версии node ползуете

    - обязательно поможем

кста , проверьте доки - возможно там найдете ответы

и какой агент вы используете ?

Для полноценной генерации кода программ необходимо полное понимание нейросетью смысла действий каждой команды, плюс подробные знания языка программирования, библиотек фреймворков, API и много ещё чего. Простым RAG и MCP отделаться не получится. С моей точки зрения LLM могут выступить базами всех этих сложных знаний но саму генерацию кодов доверять трансформеров нельзя. Как минимум нужны системы точного логического вывода типа Prolog и некие средства автоматической трансляции, компиляции, исполнения кода для верификации и коррекции. Наверно удобно строить такую систему на базе LLVM проекта. Представление языка программирования и самой задачи может быть оформлено в виде неких фактов и правил, вывода типа экспертной системы а генерация кода, как поиск последовательности операций логического выводов.

Сегодня была новость, что ИИ агенты решили все задачи в международной олимпиаде по программированию (12 из 12) и сделали это лучше людей. Так что со знаниями и генераций кода у них хорошо. Проблемы как раз с интеграцией в текущий код, вот автор статьи и пытается искать решение. Ну и плюс пока это еще инструмент, а не полная замена разработчика.

Если честно я очень скептически отношусь к способностям точного логического вывода текущего поколения нейросетей. Все эти задачи математических олимпиад заранее известны и наверняка использованы для обучения. Я точно знаю, что есть класс специальных вопроса на логику которые ставят в тупик любую нейросеть и преодолеть это пока нельзя. Я думал над генерацией полноценного кода и всё-таки считаю, что абсолютно необходима интеграция трансформеров с системами логического вывода классического ИИ. Это так же необходимо как две половины нашего мозга: логическая и ассоциативная.

А зачем нужна точная генерация кода? Почти все языки программирования позволяют решить задачу 3-10 разными способами. Разные люди выбирут разные варианты, потом будут долго спорить на код ревью какой самый верный, при этом все рабочие. Так и с нейросетью, может даже у нее где-то будет не рабочий код, но дальше либо сама через тесты поправит, либо вручную, в любом случае это сильно может ускорить разработку.

А для полной замены возможно вообще LLM как трансформера не достаточно. Точно нужна будет верификация через компилирование и запуск тестов. Но до этого пока далеко, в ближайшие годы и без полной замены будут существенные изменения.

Я имел в виду точное кодирование в логическом смысле. Оптимизация кодов это отдельная тема и она в принципе решается алгоритмическими методами. Я видел некоторые коды, генерируемые LLM . Они просто чудовищны и разумеется не работают. Если у вас есть реальные проекты ИИ кодогенерации, мы можем попробовать сотрудничать. Тема актуальная и запустить какой либо стартап скорее всего будет не сложно. Спасибо и Удачи!

Странно) У меня код работает использовал локально и онлайн: Qwen 2.5-3 Coder, Qwen Code, Gemeni CLI. Местами правда по химичил с системной ролью, методами и алгоритмами.

Есть разные коды, разных задач. Стандартные алгоритмы на GitHub позволяют обучить нейросети, а шаг влево, вправо или вообще что то новое и GPT пасует.

Copilot хорошо справляется с рутиной промышленного кодинга, где большая часть работы это решение как раз типовых задач - уровня перекладывания джейсонов.

Часть проблем с логикой снимается при помощи классических инструментов статического код анализа и тестов. Агенты получают обратную связь и за несколько итераций выдают валидный код (ну либо не выдают, что только периодически случается).

Да я то согласен, что прогресс есть и ИИ автокодинг движется в правильном направлении но имел в виду общую проблему нейросетей с рассуждениями. Они пока очень не надежны. Решают только простейшие задачи и не обладают полноценным дедуктивным логическим выводом. Это общая беда всех генеративных трансформеров + галлюцинации. Я категорический поборник интеграции нейрокомпьютинга и классических методов логического вывода ИИ.

Согласен, галлюцинации и разные глупости это обратная сторона креативности - творческие люди тем же страдают. С математической логикой проблема ещё в том, что их на самом деле не одна, а много - в итоге при одинаковых вводных можно получать абсолютно разные результаты.

С математикой я часто использую хак через кодинг: вместо решения задачи напрямую, прошу сеть сгенерировать программу, которая посчитает и выдаст ответ. Вероятно, они могут генерировать код и на Prolog?

я экспериментировал с Google Gemini.Модель генерирует только самые простейшие коды на Prolog но может быть очень полезна для представления фактов и не сложных правил из баз знаний LLM. Саму постановку маломальский сложной задачи в виде кода нейросеть не сгенерит.

Попробовал ваше решение, пока начало пути, не юзабельно когда в проекте зоопарк языков. Остаюсь пока на sourcebot, он крутится также локально, есть mcp

Выглядит интересно, довольно просто локально развертывается с подключением к lm studio. А можете вкратце описать для каких кейсов используете?

быстрые ответы на вопросы в старых и больших монолитах и малоизвестных мне проектах на которых я каждый день не кодирую, но так или иначе нужны в работе

Эм... Разве не проще поставить https://lmstudio.ai/,
скачать любимую модель для кода и Embedding модель например Nomic, которая как раз занимается индексированием файлов проекта.

На вкладке «Разработка» запустить в режиме сервера, в Settings проставив галочки, стартануть нужные ии модели.

В любимой IDE поставить расширение наподобие https://www.continue.dev/, добавить нового провайдера ИИ в лице LM-Studio.

Среда разработки с ИИ, знающим, как устроен проект, готова.

Спасибо , не знал про такие возможности . Обязательно попробую

Можно больше одного агента подцепить и заставить работать как ансамбль, ACP в помощь, а уже к модели MCP. Мультиагентные системы это то к чему придем рано или поздно.

Попросить LLM написать для нас код стало так же естественно, как гуглить ошибку.

Нет.

попытался покрутить, но уперся в

"method": "find_similar_code",

"error": "Failed to initialize embedding model: TypeError: this.hashText is not a function"

То же самое, нода 20 стоит, все зависимости проапгрейдил (как я понял нужно зайти в ~/.npm/_npx/...)

Хороший - зрелый продукт. Спасибо что подсветили - если бы знал - свой не создавал )))

Sign up to leave a comment.

Articles