Вы тоже думали, что в Anthropic сидят небожители, которые пишут идеальный код с помощью секретных версий Claude 5.0? Похоже, нет.

У них те же проблемы, что и у нас: джуны разучились гуглить, сеньоры ленятся писать документацию, а "холодный старт" проекта вгоняет в ступор даже SotA модели.

На днях компания выпустила крутой разбор – как AI трансформирует их внутреннюю культуру. Там есть всё: от признаний в некомпетентности до споров о том, умирает ли профессия.

Я разобрал ключевые тезисы исследования, чтобы понять: мы наблюдаем эволюцию разработчика или его превращение в оператора кнопки "Сделать красиво"?

Рост эффективности

Сотрудники оценивают рост эффективности в ~50%, но он не в том, что они быстрее закрывают тикеты, а в Output Volume. Люди тратят то же время на задачу, но выдают кратно больше решенных задач.

27% задач, выполненных с Claude – это работа, которую раньше просто не стали бы делать

Это создание «nice-to-have» инструментов, интерактивных дашбордов или проверка гипотез, слишком дорогих для ручного труда.

Тут абсолютно согласен. По моему опыту, как только выполняешь задачу с использованием AI и видишь, что нет срочных задач, а время работать ещё есть, хочется повысить "quality of life" – улучшить инструменты, которыми пользуешься, провести рефакторинг, который давно откладывал. AI с этим справляется очень круто.

Полностью делегировать AI удается лишь 0–20% работы.

AI отдают работу, которую:

  • легко и быстро проверить беглым взглядом

  • задачи с низкими рисками

  • или просто скучные задачи

А вот прямые цитаты разработчиков Anthropic по использованию Claude:

  • «Чем больше самому хочется сделать задачу, тем меньше шансов, что я пойду к Claude. А если я, наоборот, чувствую сильное сопротивление… то мне часто проще начать диалог с Claude, чтобы сдвинуться с мертвой точки».

  • «Главный блокирующий фактор сейчас – проблема "холодного старта". Я имею в виду огромный объем внутреннего контекста… который есть у меня в голове, но которого нет у Claude… Я мог бы потратить время, подбирая идеальный промпт, но проще пойти и сделать самому».

  • «Он незаменим там, где проверка результата занимает гораздо меньше времени, чем его создание».

  • «Большинство моих проблем с инфраструктурой несложные… Я плохо знаю Git или Linux… и Claude отлично компенсирует мой недостаток опыта в этих областях».

И вот на последней фразе становится не по себе.

Я обычно пытаюсь рассматривать такие вопросы с разных сторон, так что скинул статью ребятам, которые тоже много пишут у себя в тг про AI Coding. Максим Романовский – Head of AI в биг корпе, а Коля Шейко – наоборот, консалтер, который аутсорсит ИИ-проекты. Я – Тимур Хахалев, работаю в небольшой аутсорсинговой компании, консультирую по AI Coding.

За этими красивыми цифрами роста продуктивности скрывается проблема, о которой в индустрии пока боятся говорить вслух.

Мы превращаемся в операторов

Макс подсветил, что за этими красивыми цифрами роста продуктивности есть проблема, о которой в индустрии опасаются говорить вслух – мы начинаем терять контроль.

Даже инженеры Anthropic говорят, что они перестают быть писателями кода и становятся его «менеджерами». Это слегка пугает. Если сеньор отдает ИИ кусок работы, потому что плохо знает Linux" или ему "лень разбираться в контексте", то через год он может перестать быть сеньором. А джун, который сразу начал делегировать всё Claude, сеньором может никогда и не стать.

Получается парадокс: бизнес требует Output Volume (больше фич в единицу времени), а инженерная совесть требует понимать, как, чёрт возьми, это работает под капотом. И пока мы радуемся, что "AI написал это за меня", мы медленно превращаемся из архитекторов в операторов, которые просто нажимают "Approve" на Pull Request, не вчитываясь в логику.

Коля с Максом не согласен: проблема не в AI, а в отсутствии методологии. Ещё ранее Anthropic выпустили статью, в которой рассказывают о том, как работать с long running tasks. В ней они рассказывают о необходимости использовать спеки в .txt, файл лога прогресса над задачей, декомпозиции задач, коммиты в git по завершению тасок и прочее. Такой инженерный подход и есть работа программиста.

Война методологий

А ещё мы все прекрасно помним, что как только заходит речь о том, что Claude Sonnet лучший во фронтенде, то обязательно в обсуждении появляется человек, который будет утверждать, что Cursor с моделью Auto в два счёта напишет ему фронтенд лучше, чем это сделает Claude Sonnet в "упряжке" (так переводится новый термин harness, запоминаем) Claude Code.

Вы сталкивались с такими паттернами обсуждений?

Мы пришли к выводу, что всё дело в том, что у каждого человека есть своё понимание хорошего, каждый человек по-своему позволяет использовать AI в работе. Кто-то доверяет AI писать только парочку функций в проекте, а кто-то полностью делегирует AI работу с кодом.

Получается, что у людей разные кейсы использования AI Coding, а как сравнивать это – непонятно.

Где грань между эффективным использованием и профессиональной ленью? Какие паттерны реально работают в продакшене, а какие – просто хайп блогеров?

Это нас навело на мысль, что нет какой-то единой агрегации подходов, где человек мог бы зайти на какой-то ресурс и ему было бы понятно, какие подходы, лайфхаки, модели выбрать под его кейс.

Значит, пора это исправить.

Мы решили, что такая агрегация нужна . Для этого нам нужно собрать опыт людей из сообщества AI coding. Нужно проанализировать это, классифицировать по кейсам и поделиться с сообществом.

Мы сделали опросник для практиков AI Coding

По нашей задумке, любой желающий может прийти и поделиться своим опытом, а в замен получить опыт других людей.

Цель – агрегировать опыт, классифицировать кейсы и понять, где сейчас зоны успеха у AI в разработке.

Заполнить

Заполните, если используете AI в работе. Всем кто осмысленно пройдет опрос, мы через некоторое время вышлем доступ к обезличенным результатам других участников.

Ну и это: Признавайтесь, уже начали забывать синтаксис или всё под контролем?