Я занимаюсь работой с экспериментальными AI-first командами и исследую гипотезу о том, что Lead Time снижается если внедрить Agentic Engineering. Наш опыт, а также примеры из индустрии показывают - в Greenfield-проектах (с нуля) время от написания требований до выкатки на прод сокращается.

Но время реализации сокращается по-разному, в зависимости от контекста. Я попробовал систематизировать свой опыт и порассуждать:

  • как AI меняет цикл разработки в Greenfield, Brownfield и highly regulated проектах - и на какие метрики обращать внимание;

  • в чем теперь фокус взаимодействия между членами команды, какие этапы становятся неактуальными. 

Внимание: пост - призыв к дискуссии, нежели утверждение.

Три сценария: как SDLC сворачивается по-разному

Нет универсального “нового SDLC” где только агенты и 0 человек. В реальности будет спектр сценариев. В каждом сценарии есть изменения, а также метрики, за которыми надо следить, чтобы не стало хуже.

Сценарий 1: Greenfield-проект

В этом сценарии у нас нет никакой старой кодовой базы, пользоваталей. Цена ошибки низкая, скорость критична. Это, кажется, самый близкий вариант к полному agentic-engineering (в терминах товарища Карпатый) и видению в статье SDLC is dead.

Что меняется:

  • Security-critical код (например, авторизация) — 100% code review делается человеком; остальное — автоматизированные и выборочные проверки

  • Основным контуром защиты прода выступает Observability (канареечные релизы и автоматические откаты). Но этот механизм должен опираться на фундаментальные инженерные практики: многоуровневое тестирование, грамотную архитектуру с низкой связностью модулей, чистый дизайн и разработку на основе типов.

  • Итерации с результатами теперь за кратно меньшее количество времени

  • Время реализации снижается радикально.

Как убедиться что мы не сделали хуже:

  • Lead Time <= 1 день

  • Deployment Frequency > 1/день и чаще

  • Change Failure Rate <= “Хорошо” по DORA (0-15%)

Сценарий 2: Brownfield (Существующий продукт)

Разберем ситуацию, когда у нас уже есть пользователи, есть технический долг. Цена ошибки для нас выражается в реальных деньгах.

Что меняется:

По код-ривью нужен трехуровневый подход по риску:

Тип кода

% Code Review, выполняемый человеком

Примеры

Безопасность, Критичный код

100% review старшими-специалистами

Auth, payment gateways, персональная информация, крипта

Бизнес-логика

30-40% ревью живыми коллегами

Фичи, API, потоки данных

Утилиты и прикладные инструменты

Агентский/Автоматизированный code reivew + выборочные проверки

Тесты, доки, конфиги

По данным LinearB 2026 Benchmarks, AI PR мержатся в 32.7% случаев против 84.5% у человеческого кода — большая часть требует доработки.

  • Человек ответственен за валидацию, особенно для кода с высоким радиусом поражения

  • Обязательная поэтапная выкатка через препрод-среды + надежная observability-обвязка (проактивный мониторинг и автоматический откат).

  • Время реализации снижается значительно.

Как убедиться что мы не сделали хуже чем было:

  • Время на Code Review не растёт (несмотря на больше PR)

  • Количество дефектов стабильно или не растет

  • SLA/SLO не снижаются

  • Удовлетворенность разработчиков не падает

Сценарий 3: Регулируемая индустрия (финтех, медтех, страхование)

  • Это по сути тот же Brownfield + толстый регуляторный слой сверху.

  • FYI: Brownfield уже подразумевает что есть легаси.

В этом сценарии Compliance-отдел и аудиторы требуют человеческой ответственности и истории изменений.

Что меняется в процессе разработки:

  • AI ускоряет отдельные этапы или связку этапов. Это частично сокращает простои, но решения так же принимаются человеком (должен быть ответственный).

  • Этапы могут объединяться (например, Compliance + Требования, Безопасность и Аудит решений). Но выбросить окончательно их не получится: нужно оставлять следы для аудита (обязательно трекать кто сгенерировал, кто заапрувил, что изменилось).

  • Радикального снижения времени реализации мы уже не добиваемся.

Как убедиться что мы не сделали хуже чем было:

  • Change Failure Rate не растет

  • Постепенно сокращается время на проверку соответствия решения регуляторке (на соответствующих этапах)

  • Скорость разработки растёт, при этом продукты и сервисы продолжают соответствовать регуляторке

Большой дисклеймер: мы много спорили с коллегами не похож ли флоу в компаниях с кучей регуляторки больше на Brownfield-пример. Ревью требований по комплаенсу выглядит как работа для ИИ - потому что сопоставить соответствие неумолимой букве закона - хорошая задачка для ИИ-шки. С точки зрения безопасности - сейчас есть энтерпрайз и не только модели, которые хорошо сканируют системы на предмет уязвимостей. 

Напишите в комментах, как с вашей точки зрения: история с регулируемыми индустриями больше похожа на Brownfield из предыдущего примера, на текущий пример, или на что-то совсем другое!

Больше подобной аналитики, обзоров и кейсов AI в менеджменте можно увидеть в моем канале.