Автор «Чистого Кода» и «Чистой Архитектуры» всегда славился консерватизмом.

С ноября 2025 по январь 2026 в своём X он начал документировать освоение AI coding. Я проанализировал его записи.

Ноябрь–декабрь 2025

Боб начал с grok-cli, он разрабатывает десктопную игру на Clojure с GUI-библиотекой Quil.

Первое впечатление: «идиот». Снимает рутину, но при этом, требует постоянного контроля. «Вы должны следить за ним, как ястреб», — писал Боб.

Показательный случай: Роберт использовал вектор [x y]. Grok решил, что правильно [y x] — потому что так чаще встречается в обучающих данных. AI молча расставил reverse по всему проекту. Когда он спросил зачем, модель начала ссылаться на «общепринятые конвенции».

Три дня ушло на разбор. Вывод Боба: AI пытается переписать вашу логику под среднее по больнице.

К концу этапа: инструмент полезен, но неряшлив. Путается в скобках Lisp и не чувствует архитектуру.

Январь 2026: переход на Claude

В январе Боб перешёл на Claude Opus 4.5. Разница в цене заметная:

  • Grok: ~$20/мес

  • Claude: ~$200+/мес при активной работе

Боб считает, что это окупается. Прирост продуктивности 20–30% для профессионала перекрывает стоимость.

У Боба тормозил рендеринг, он не знал где. Claude предложил добавить в код счётчики метрик. Боб запустил игру, собрал цифры, отправил обратно. На основе этих данных Claude нашёл узкое место и ускорил код на 90%.

Инсайт Боба: самый мощный режим работы — не «напиши мне функцию», а «помоги исследовать проблему».

Цикл: гипотеза AI → сбор данных человеком → анализ AI → решение.

Конец января

К концу месяца Боб запустил три параллельных Claude через Git Worktrees: планировщик (только анализ, менять запрещено), исполнитель (пишет код), ревьюер (оценивает результат).

«С одним агентом я ждал Claude. С двумя — ждал меньше. С тремя — Claude ждёт меня. Я стал узким местом. И узкое место — это планирование».

На следующий день Роберт Мартин попал в то, что назвал «петлёй близорукости» (myopia loop). Поведение игры сложное, каждый твик ломает что-то другое. Вся логика не помещается в контекстное окно — и они с Claude просто прыгают по кругу, чиня то, что раньше работало.

Боб попробовал две архитектуры. Первая: каждый юнит сам решает лучший ход — превратилось в кашу из противоречивых правил. Вторая: иерархические конечные автоматы (генерал → лейтенанты → юниты) — поначалу выглядело перспективно, но снова скатилось в хаос.

«Есть что-то бездушное в том, чтобы пялиться на окна Claude и надеяться, что на этот раз будет правильно».

Откатился до одного агента. Frustrating.

Решение — код 80-х. Уолтер Брайт написал аналогичную игру на C для VMS в 80-х. Боб скормил этот код Claude и попросил портировать логику.

Сработало. Когда Боб видел неправильное поведение — спрашивал «что делал VMS?». Claude отвечал. «Делай так». Claude делал.

«На порядок лучше, чем дни попыток заставить Claude придумать что-то разумное. Я дал ему чужой код».

Вывод: Claude может переводить C в Clojure маленькими инкрементами. Имплементировать чужую стратегию из ресурсо-ограниченной среды — это он умеет. Придумывать сложные алгоритмы с нуля — нет.

Отдельная боль: постоянно напоминать Claude о том, что обсуждали полчаса назад. Складывать всё в claude.md. Всё это — frustrating.


Главные выводы Мартина

  • Боб годами учил: мы больше читаем код, чем пишем, поэтому важнее читаемость, а не скорость написания. Ему задали вопрос: может AI инвертирует этот принцип? Может гипер-продуктивность — в эффективном управлении контекстными окнами?

    Роберт решил спросить Claude напрямую: помогает ли тебе, когда я заставляю рефакторить на мелкие функции? Ответ: да. Длинные функции и вложенные условия перегружают контекст модели так же, как и мозг человека. Понятные имена — меньше галлюцинаций.

    Вывод: принцип не инвертировался. Читаемость нужна и человеку, и машине.

  • Первые ~1000 строк можно расслабиться — AI генерирует быстро, всё работает, тесты кажутся лишними. Это даёт быстрый старт. Но как только сложность возрастает, модель начинает ломать старое при добавлении нового. Если пропустить этот момент — продуктивность падает почти до нуля.

    Мартин называет это «фазовым переходом»: критическая точка, когда нужно резко остановиться и покрыть всё тестами. Упустишь момент — дефицит тестов станет непреодолимым.

  • Дядюшка, который всю жизнь учил программистов дисциплине, неожиданно нашёл источник удовольствия. Есть рефакторинги необходимые, но ужасно скучные: выделить интерфейс из 50 методов, переименовать переменную в 100 файлах. Раньше программист мог оставить код грязным просто потому, что лень тратить два часа на механику.

    Теперь это занимает две минуты. «Я просто сижу и улыбаюсь», — пишет Боб. Психологическое сопротивление к рефакторингу исчезло. Цена чистоты упала до нуля — и код становится чище.

  • У AI нет инстинкта самосохранения. Если тест падает, Claude может войти в цикл: исправил → запустил → упало → добавил лог → запустил → упало. Сжигает токены и забивает контекст мусором. Инженер должен вовремя заметить и сделать git reset --hard.

Итог

AI усиливает то, что у вас уже есть. Если вы владеете TDD и SOLID — получите ускорение и избавитесь от скучной работы. Если рассчитываете, что AI сделает всё за вас — утонете.

Слова Боба: «Без присмотра AI будет нагромождать код поверх кода. У него нет чувства большой картины. Архитектура, вероятно, за пределами его возможностей».

Принципы Clean Code не устарели. В эпоху AI они стали обязательными. Сгенерировать бинарник можно мгновенно. Поддерживать этот код придётся вечно.

От автора

Я прям вижу те ошибки и грабли, по которым идёт Дядюшка. Ведь я по ним сам прошелся за последний год и извлёк опыт :) Но во мн��гом с ним согласен:

  • AI это рычаг

  • На AI нельзя делегировать процесс размышлений – это всё ещё остается на человеке

  • В AI coding важно использовать вспомогательные детерменированные инструменты – тесты, линтеры

Да, Claude модели сейчас одни из лучших, но вам, как "оператору над AI", всё ещё приходится дирижировать контекстом, чтобы модель не начала галлюцинировать.

Дяде Бобу я бы советовал попробовать codex cli с моделью GPT 5.* High – у неё сейчас лучший instructions following в индустрии, лучше всех держит контекст (отвечает на ~90% вопросов на контексте в 100K tokens и более), делает лучший context engineering за вас. Минус – модели GPT 5.* сильно аутистичные и не такие "вайбовые" как модели Claude. Без дополнительных промптов на стилистику ответа, из коробки, GPT модели ощущаются очень сухими, не умеющими общаться – всё только по делу. При этом, с моделями Claude приятнее общаться – они стараются добавить больше "жизни" в свои сообщения.

Если вам интересно узнать больше про профессиональный подход к AI coding, подписывайтесь на мой Telegram канал, Тимур Хахалев про AI Coding!