Хм. Удивлен, что гпт 5.2 xhigh с таким не справилась. А вы ей сообщили об этой особенности? Вообще, подобную закачку на конвертацию в принципе даже обычный чатгпт в вебе с code execution должна решать.
Мы в CodeAlive graph RAG по коду с LSP и Roslyn строим уже почти два года в виде коммерческого продукта и до сих пор вылезают разные нюансы. В статье описаны лишь несколько % из тех приседаний, которые нужно сделать для того, чтобы такая система давала действительно релевантные и стабильные ответы. Ну и главный инсайт в том, что векторизовать сырой код - неэффективно, а векторного поиска, конечно же, недостаточно - даже самого лучшего.
Спасибо за обзор. OpenSearch еще очень не хватает. Это единственная БД с векторным и полнотекстовым поиском, которая доступна в managmed варианте из AWS и Яндекс.Облака.
А если мы сделали контекстный движок для улучшения работы ИИ с большими кодовыми базами, который уже использует ряд компаний и хотим описать принцип работы этот движка - такая статья будет ли считаться рекламой?
А кто автор статьи? Действительно выглядит как генерация.
DeepSeek Coder с 6,7 миллиардами параметров после дообучения превосходит CodeLlama с 13 миллиардами, достигая 70% полезных предложений против 40-50%.
Это же какие-то совсем старые неактуальные модели, почему тут про них написано? Мелкие модели для code review - это в принципе прямой путь к зашкаливающим ложным срабатываниям.
Расскажите как именно и что именно вы внедрили - вот это будет интересно прочитать.
Спасибо за разбор. Весь цикл выполнения с самого начала на примере реальной задачи интересно было бы посмотреть - какие промпты, параметры передаются, как он определяет какие файлы надо прочитать.
Подскажите, что мешает использовать для эмбеддингов отдельную модель? Qwen 3 Embeddings 0.5B, например, великолепные эмбеддинги. И ещё можете для чата попробовать новую Gemma 3n
Мы в CodeAlive давно сделали. Работает сильно точнее любых других грепов и "MCP".
Хм, это на начальном этапе так? С кодексом, в принципе, и на неделю-две можно брать задачки.
Особенно если команда прикепела к курсору
А расскажи плиз подробнее какие доводы приводишь
Спасибо за статью. Идея для следующей - sparse vs dense vectors.
Хм. Удивлен, что гпт 5.2 xhigh с таким не справилась. А вы ей сообщили об этой особенности? Вообще, подобную закачку на конвертацию в принципе даже обычный чатгпт в вебе с code execution должна решать.
Мы в CodeAlive graph RAG по коду с LSP и Roslyn строим уже почти два года в виде коммерческого продукта и до сих пор вылезают разные нюансы. В статье описаны лишь несколько % из тех приседаний, которые нужно сделать для того, чтобы такая система давала действительно релевантные и стабильные ответы.
Ну и главный инсайт в том, что векторизовать сырой код - неэффективно, а векторного поиска, конечно же, недостаточно - даже самого лучшего.
Вообще, движок облачный. Но для компаний доступа on prem опция. Claude Code и Codex поддерживаются через MCP.
А CodeAlive пробовали? У нас давно и LSP и векторизация и множество других оптимизаций для работы с большими кодовыми базами.
Спасибо!
Спасибо за обзор. OpenSearch еще очень не хватает. Это единственная БД с векторным и полнотекстовым поиском, которая доступна в managmed варианте из AWS и Яндекс.Облака.
А если мы сделали контекстный движок для улучшения работы ИИ с большими кодовыми базами, который уже использует ряд компаний и хотим описать принцип работы этот движка - такая статья будет ли считаться рекламой?
Спасибо
Уточните, Kimi K2 или K2 Thinking бенчмаркали?
Посмотрите на CodeAlive.ai, мы как раз проблему сложного контекста решаем.
Расскажите про свой опыт с разными моделями для ревью
Спасибо, а для Gitea тоже поддерживается inline review?
Главный вопрос качества такого ревью. Какие вы модельки пробовали использовать и насколько релевантные результаты получали?
А кто автор статьи? Действительно выглядит как генерация.
Это же какие-то совсем старые неактуальные модели, почему тут про них написано? Мелкие модели для code review - это в принципе прямой путь к зашкаливающим ложным срабатываниям.
Расскажите как именно и что именно вы внедрили - вот это будет интересно прочитать.
Спасибо за разбор. Весь цикл выполнения с самого начала на примере реальной задачи интересно было бы посмотреть - какие промпты, параметры передаются, как он определяет какие файлы надо прочитать.
Подскажите, что мешает использовать для эмбеддингов отдельную модель? Qwen 3 Embeddings 0.5B, например, великолепные эмбеддинги.
И ещё можете для чата попробовать новую Gemma 3n