
Anthropic представила новый режим auto mode для Claude Code. Его идея в том, чтобы убрать вечную проблему AI-кодинга: либо разработчик вручную подтверждает почти каждое действие модели, либо полностью отдает ей управление и надеется, что ничего не сломается.
В новом режиме Claude сам решает, какие действия можно выполнять без подтверждения пользователя, а какие лучше остановить. Перед запуском каждого шага система проверяет его на рискованное поведение и на признаки prompt injection — атаки, при которой вредные инструкции прячут в обрабатываемом контенте и заставляют ИИ делать то, чего пользователь не просил.
По сути, это более осторожное развитие уже существующего режима, где Claude мог работать почти без ограничений. Разница в том, что теперь между моделью и действием добавили дополнительный слой проверки. Безопасные шаги выполняются автоматически, а сомнительные блокируются.
Другие новости и материалы по AI — в Telegram-канале NH | Новости технологий, AI и будущее.
Anthropic пока не раскрывает, по каким именно критериям система отделяет безопасные действия от рискованных. И это, вероятно, будет одним из главных вопросов для разработчиков: доверять модели можно только тогда, когда понятно, как именно работает ее «тормозная система».
Новый режим продолжает общий тренд: AI-инструменты для разработки становятся все более автономными и все меньше ждут подтверждения человека на каждом шаге. Но вместе с этим растет и цена ошибки, поэтому Anthropic советует запускать auto mode только в изолированных средах, а не в продакшене.
Сейчас функция доступна в research preview для Enterprise- и API-пользователей и работает с Claude Sonnet 4.6 и Opus 4.6.
В канале NH | Новости технологий, AI и будущее публикуем новости AI, полезные сервисы, автоматизацию и материалы о практическом применении нейросетей. Если нужна зарубежная карта для оплаты сервисов, отдельный разбор можно почитать здесь.
