Обновить
9
Родион Мостовой@rodion-m

Энтузиаст, разработчик

4
Подписчики
Отправить сообщение

Мы в CodeAlive давно сделали. Работает сильно точнее любых других грепов и "MCP".

Брать задачи, которые вручную делались бы за 4-8 часов, не больше.

Хм, это на начальном этапе так? С кодексом, в принципе, и на неделю-две можно брать задачки.

Особенно если команда прикепела к курсору

Убеждаю менеджмент перейти с Cursor на Claude Code

А расскажи плиз подробнее какие доводы приводишь

Спасибо за статью. Идея для следующей - sparse vs dense vectors.

Хм. Удивлен, что гпт 5.2 xhigh с таким не справилась. А вы ей сообщили об этой особенности? Вообще, подобную закачку на конвертацию в принципе даже обычный чатгпт в вебе с code execution должна решать.

Мы в CodeAlive graph RAG по коду с LSP и Roslyn строим уже почти два года в виде коммерческого продукта и до сих пор вылезают разные нюансы. В статье описаны лишь несколько % из тех приседаний, которые нужно сделать для того, чтобы такая система давала действительно релевантные и стабильные ответы.
Ну и главный инсайт в том, что векторизовать сырой код - неэффективно, а векторного поиска, конечно же, недостаточно - даже самого лучшего.

Вообще, движок облачный. Но для компаний доступа on prem опция. Claude Code и Codex поддерживаются через MCP.

А CodeAlive пробовали? У нас давно и LSP и векторизация и множество других оптимизаций для работы с большими кодовыми базами.

Спасибо за обзор. OpenSearch еще очень не хватает. Это единственная БД с векторным и полнотекстовым поиском, которая доступна в managmed варианте из AWS и Яндекс.Облака.

А если мы сделали контекстный движок для улучшения работы ИИ с большими кодовыми базами, который уже использует ряд компаний и хотим описать принцип работы этот движка - такая статья будет ли считаться рекламой?

Спасибо
Уточните, Kimi K2 или K2 Thinking бенчмаркали?

Посмотрите на CodeAlive.ai, мы как раз проблему сложного контекста решаем.

Расскажите про свой опыт с разными моделями для ревью

Спасибо, а для Gitea тоже поддерживается inline review?

Главный вопрос качества такого ревью. Какие вы модельки пробовали использовать и насколько релевантные результаты получали?

А кто автор статьи? Действительно выглядит как генерация.

DeepSeek Coder с 6,7 миллиардами параметров после дообучения превосходит CodeLlama с 13 миллиардами, достигая 70% полезных предложений против 40-50%.

Это же какие-то совсем старые неактуальные модели, почему тут про них написано? Мелкие модели для code review - это в принципе прямой путь к зашкаливающим ложным срабатываниям.

Расскажите как именно и что именно вы внедрили - вот это будет интересно прочитать.

Спасибо за разбор. Весь цикл выполнения с самого начала на примере реальной задачи интересно было бы посмотреть - какие промпты, параметры передаются, как он определяет какие файлы надо прочитать.

Подскажите, что мешает использовать для эмбеддингов отдельную модель? Qwen 3 Embeddings 0.5B, например, великолепные эмбеддинги.
И ещё можете для чата попробовать новую Gemma 3n

Информация

В рейтинге
Не участвует
Откуда
Сайгон, Dong Nam Bo, Вьетнам
Дата рождения
Зарегистрирован
Активность

Специализация

Бэкенд разработчик
Ведущий
C#
.NET
ASP.NET
Entity framework
DDD
.NET Core