Comments 15
Я не дядюшка Боб, но пришел к таким же заключениям. Первые 1000 строк кода - хорошо. Дальше начинается безумие. Пишет новое - ломает старое. Чинит старое - ломает новое. ИИ хорош, если вот совсем не знаешь сферы работы(в моем случае Ангулар) и за не имением других вариантов, то приходится юзать ИИ, но я представляю какой говнокод на выходе получается (оценить не могу ибо почти ноль в Ангуларе).
На беке предпочитаю все же сам делать проект, только небольшие точечные задачи прошу написать. Ну и тесты полностью отдал ИИ. Хотя с одной стороны все равно нужно тщательно проверять, но с другой он часто добавляет edge кейсы в тестах о которых я сам не подумал, что безусловно огромный плюс.
Еще я сделал такой вывод, уже на уровне человеческой физиологии. Либо ты полностью пишешь код, и ограниченно просишь помощь у ИИ. Либо ты полностью отдаешь написание кода ИИ. Работа в режиме 50/50 плохая. Потому что когда ты говоришь условно "напиши мне такой-то сервис". Он напишет, ты проверишь, поправишь, но это уже "не твой сервис, не твой код". Ты вне контекста этого сервиса. Ты очень быстро про него забудешь, а дальше по проекту будешь упорно вспоминать, где же эта бизнес-логика реализована. Когда ты сам пишешь код, то в голове это крепко откладывается и ты знаешь, что где у тебя лежит
Первые 1000 строк кода - хорошо. Дальше начинается безумие. Пишет новое - ломает старое. Чинит старое - ломает новое.
Как органичный вывод из этого, я вместо правок меняю исходные требования и делаю проект с нуля. 3-4 попытки дают что-то близкое к тому, что я хочу.
(уточню, что пробовал только небольшие проекты)
Еще я сделал такой вывод, уже на уровне человеческой физиологии. Либо ты полностью пишешь код, и ограниченно просишь помощь у ИИ. Либо ты полностью отдаешь написание кода ИИ. Работа в режиме 50/50 плохая. Потому что когда ты говоришь условно "напиши мне такой-то сервис". Он напишет, ты проверишь, поправишь, но это уже "не твой сервис, не твой код". Ты вне контекста этого сервиса.
тоже соглашусь и добавлю, что всё написанное прошу объяснять. А так же задаю "свои стандарты" - "безопасный код", бесконечные try/catch со стратегией на выживание на этапе разработки ужасно засоряют код и мешают пониманию логики (ну мне по крайней мере)
Как будто читаю мои наблюдения от вайб-кодинга, если бы я их задокументировал ;-)
В самом деле, если делаешь что-то новое, чего нет в паттернах обучающих данных, или просто по новой логике, чуждой LLM (поменял местами X и Y), то начинается лютая дичь, с которой сложно справляться. По крайней мере, раньше так было.
Первые ~1000 строк можно расслабиться — AI генерирует быстро, всё работает, тесты кажутся лишними. Это даёт быстрый старт. Но как только сложность возрастает, модель начинает ломать старое при добавлении нового. Если пропустить этот момент — продуктивность падает почти до нуля.
Мартин называет это «фазовым переходом»: критическая точка, когда нужно резко остановиться и покрыть всё тестами. Упустишь момент — дефицит тестов станет непреодолимым.
Не тестами, а контрактами между хорошо изолированными модулями. Тест это один из вариантов проверки контракта, но лучше описать контракт в типах.
"GPT модели ощущаются очень сухими, не умеющими общаться – всё только по делу." так это же отлично!
GPT модели ощущаются очень сухими, не умеющими общаться – всё только по делу. При этом, с моделями Claude приятнее общаться – они стараются добавить больше "жизни" в свои сообщения.
По моему это наоборот хорошо. Нафиг не нужны все эти "софт-скиллы".
Самая отвратительная модель по личному не очень богатому опыту - это Gemini. Вот это жополизство и льстивость просто высшего уровня. Все эти "Ты абсолютно прав" и "этот код высшего качества" - это про неё. При том пользы значительно меньше чем от GPT, которая обходится без всего этого тошнотворного восхищения твоим кодом и умственными способностями.
"Это гениально!" ещё ))
ЧатЖПТ тоже любит тошновторно лизоблюдить. Просишь его "отвечай только по делу, от себя эмоциональные оценки не давай" и он начинает уже нормально отвечать. Но в каждом новом диалоге все возвращается.
Где-то уже видел шутку относительно того, что следующий бестселлер дяди Боба будет называться «Clean Claude».
Прирост продуктивности 20–30% для профессионала перекрывает стоимость.
Осталось понять, как они эту "продуктивность" считали...
У меня негативный опыт работы с gpt 5.2 codex. Инструкции не соблюдает вообще. Мы потом посчитали - 7 раз ему прямо говорил проводи тесты самостоятельно, без моего напоминания, не останавливайся пока не выполнить задачу полностью, каждый раз он извинялся и говорил что больше так не будет, через 2 ответа снова за старое.. вместо ответов на вопрос брался за ненужное исправление кода.
Какие выводы сделал Роберт Мартин, поработав с AI Coding?