Anthropic представила новый инструмент Code Review в составе Claude Code. Он предназначен для автоматической проверки кода, который разработчики и команды всё чаще создают с помощью AI-инструментов.

В компании отмечают, что распространение так называемого vibe coding — когда разработчик описывает задачу обычным языком, а AI быстро генерирует большие объёмы кода, — ускорило разработку, но одновременно увеличило число ошибок, уязвимостей и плохо понятного кода.

Code Review должен решать эту проблему на этапе pull request. Инструмент интегрируется с GitHub, автоматически анализирует изменения в коде и оставляет комментарии прямо в pull request, указывая на возможные проблемы и предлагая варианты исправления.

По словам Anthropic, основная цель сервиса — не стилистические замечания, а поиск логических ошибок. Компания сделала акцент именно на тех проблемах, которые действительно могут повлиять на работу продукта и которые важно исправить до попадания кода в основную ветку.

Система объясняет свои выводы по шагам: что именно она считает ошибкой, почему это может быть проблемой и как это можно исправить. Для приоритизации используется цветовая маркировка: красный — наиболее серьёзные ошибки, жёлтый — потенциальные проблемы, фиолетовый — issues, связанные со старым кодом или историческими багами.

В основе Code Review лежит мультиагентная архитектура. Несколько AI-агентов параллельно анализируют код с разных точек зрения, после чего отдельный агент объединяет результаты, удаляет дубликаты и расставляет приоритеты.

Инструмент также поддерживает базовый анализ безопасности, а технические лиды могут добавлять собственные проверки в соответствии с внутренними стандартами команды. Для более глубокого security-анализа Anthropic предлагает отдельный продукт — Claude Code Security.

На первом этапе Code Review доступен в режиме research preview для клиентов Claude for Teams и Claude for Enterprise. В компании говорят, что продукт ориентирован прежде всего на крупные организации, где Claude Code уже генерирует большой объём pull request и начинает создавать узкое место на этапе ревью.

Стоимость сервиса зависит от объёма и сложности кода. По оценке Anthropic, одна проверка в среднем обойдётся в сумму от 15 до 25 долларов.

Запуск Code Review отражает новую проблему AI-разработки: генерация кода ускоряется, но проверка качества всё чаще становится главным ограничением. Anthropic рассчитывает, что новый инструмент поможет компаниям выпускать функции быстрее и с меньшим количеством багов.


Источник

Больше полезного о нейросетях и технологиях — в нашем канале NH | Новости технологий, AI и будущее. Там публикуем новости AI, интересные сервисы, автоматизацию и реальные способы заработка на нейросетях. А если нужна зарубежная карта для оплаты сервисов — можно почитать здесь, как выпустить её за 10 минут.