ну да)) тот чувак с 11 PR по сути переложил свою скорость на двух сеньоров-ревьюеров и создал им ад. А ты наоборот забрал сэкономленное время себе на этап до кода. И это как раз то что по данным работает - Kapwing из статьи тоже не стали фигачить больше PR, они стали закрывать мелкие баги автоматом а людей отправили думать. По-моему твой подход ближе к тому как AI реально помогает - не “больше кода за день” а “лучше подготовленная задача”
По сути ты делаешь то что в статье Kapwing делают на уровне процесса - человек остаётся в петле на каждом шаге. Сверка с несколькими моделями кстати хороший приём, я сам так делаю когда не уверен в архитектурном решении - если две модели предлагают разное, значит задача неоднозначная и надо думать самому. Строка за строкой конечно замедляет, но зато ты понимаешь что у тебя в проде. А по данным из статьи это ровно то место где большинство команд срезают
Комментарии гниют - код меняется, комментарий остаётся. Uncle Bob про это целую главу написал в Clean Code. Контракт эндпоинта надёжнее жить в тесте который сломается если контракт нарушен, а не в строчке которую никто не обновит. А .claude/rules/ это не комментарий, это constraint на входе - комментарий говорит “тут должна быть идемпотентность”, а правило делает так что Claude сгенерит с идемпотентностью сразу, до того как ты увидишь код
Исследование Anthropic из статьи это подтверждает цифрами - кто использует как объяснялку, понимает на 65-86%. Кто как генератор - ниже 40%. Граница ровно там где вы её провели
Ирония в том что AI-код хотя бы все подозревают и ревьюят. А код который сеньор написал три года назад мержат не глядя, потому что “ну он же знает”. Вопрос где больше сюрпризов в проде
Справедливо. Знание про дубли было у меня в голове, а не в тест-сьюте. Починил в ноябре - тест не написал, “и так помню”. Через полгода Claude генерит новый обработчик без этого знания, покрытие 91%, всё зелёное. Вот в этом и штука - покрытие считает строки, а доменное знание которое живёт только у тебя в голове в метриках не отражается. Хоть с AI, хоть без
Ну так в статье про это и речь)) тесты были, CI зелёный, покрытие 91%. Тестировщик бы тоже пропустил, потому что кейс с дублем вебхука ни в одном тест-плане не был. Это знание из инцидентов, а не из спеки
Прямой - нет конечно. Но после пары таких мержей тебя просто перестают пускать к критичны сервисам, а могут и вообще попросить. Формально не штраф, по факту ощутимо)
Так она и так есть по факту - замержил, значит твоё. Проблема в другом, когда CI зелёный и покрытие 91%, ты реально думаешь что разобрался. Я вот думал. А потом webhook лёг и оказалось что нет
Ну автокомплит и агент который сам берёт задачу, пишет код с тестами и создаёт MR это немного разные вещи. А того чувака уволили не за автокомплит, а за то что забил на прямое указание CEO
С legacy согласен, у меня есть кусок на PHP 7.2 который агент стабильно ломает если не ограничить контекст жестко. Но “небольшие мозговые усилия” - зависит от того как подаёшь задачу. Если дать тесты и constraints то неплохо справляется даже с нетривиальным
С legacy согласен, у меня есть кусок на PHP 7.2 который агент стабильно ломает если не ограничить контекст жестко. Но “небольшие мозговые усилия” - зависит от того как подаёшь задачу. Если дать тесты и constraints то неплохо справляется даже с нетривиальным
С legacy согласен, у меня есть кусок на PHP 7.2 который агент стабильно ломает если не ограничить контекст жестко. Но “небольшие мозговые усилия” - зависит от того как подаёшь задачу. Если дать тесты и constraints то неплохо справляется даже с нетривиальным
ну да)) тот чувак с 11 PR по сути переложил свою скорость на двух сеньоров-ревьюеров и создал им ад. А ты наоборот забрал сэкономленное время себе на этап до кода. И это как раз то что по данным работает - Kapwing из статьи тоже не стали фигачить больше PR, они стали закрывать мелкие баги автоматом а людей отправили думать. По-моему твой подход ближе к тому как AI реально помогает - не “больше кода за день” а “лучше подготовленная задача”
По сути ты делаешь то что в статье Kapwing делают на уровне процесса - человек остаётся в петле на каждом шаге. Сверка с несколькими моделями кстати хороший приём, я сам так делаю когда не уверен в архитектурном решении - если две модели предлагают разное, значит задача неоднозначная и надо думать самому. Строка за строкой конечно замедляет, но зато ты понимаешь что у тебя в проде. А по данным из статьи это ровно то место где большинство команд срезают
Комментарии гниют - код меняется, комментарий остаётся. Uncle Bob про это целую главу написал в Clean Code. Контракт эндпоинта надёжнее жить в тесте который сломается если контракт нарушен, а не в строчке которую никто не обновит. А .claude/rules/ это не комментарий, это constraint на входе - комментарий говорит “тут должна быть идемпотентность”, а правило делает так что Claude сгенерит с идемпотентностью сразу, до того как ты увидишь код
Так эта вакансия уже существует, называется “senior на легаси-проекте”. Просто через пять лет легаси будет пятимесячным а не пятилетним))))
Кто виноват - вопрос для ретро. Кто дебажит в три ночи - всегда разраб. Статья про второе, не про первое)
Исследование Anthropic из статьи это подтверждает цифрами - кто использует как объяснялку, понимает на 65-86%. Кто как генератор - ниже 40%. Граница ровно там где вы её провели
Ага, AI тут ничего нового не изобрёл. Просто раньше объём был меньше и иллюзия понимания держалась дольше
Ирония в том что AI-код хотя бы все подозревают и ревьюят. А код который сеньор написал три года назад мержат не глядя, потому что “ну он же знает”. Вопрос где больше сюрпризов в проде
Тест из статьи работает в обе стороны. Если могу объяснить каждое решение в тексте в три ночи - значит автор. Спрашивай)
Ты сейчас описал идеального джуна. Знает всё, понимает ничего, и с абсолютно уверенным лицом говорит что “всё работает”))))
Справедливо. Знание про дубли было у меня в голове, а не в тест-сьюте. Починил в ноябре - тест не написал, “и так помню”. Через полгода Claude генерит новый обработчик без этого знания, покрытие 91%, всё зелёное. Вот в этом и штука - покрытие считает строки, а доменное знание которое живёт только у тебя в голове в метриках не отражается. Хоть с AI, хоть без
Ну так в статье про это и речь)) тесты были, CI зелёный, покрытие 91%. Тестировщик бы тоже пропустил, потому что кейс с дублем вебхука ни в одном тест-плане не был. Это знание из инцидентов, а не из спеки
Прямой - нет конечно. Но после пары таких мержей тебя просто перестают пускать к критичны сервисам, а могут и вообще попросить. Формально не штраф, по факту ощутимо)
Так она и так есть по факту - замержил, значит твоё. Проблема в другом, когда CI зелёный и покрытие 91%, ты реально думаешь что разобрался. Я вот думал. А потом webhook лёг и оказалось что нет
Ну автокомплит и агент который сам берёт задачу, пишет код с тестами и создаёт MR это немного разные вещи. А того чувака уволили не за автокомплит, а за то что забил на прямое указание CEO
С legacy согласен, у меня есть кусок на PHP 7.2 который агент стабильно ломает если не ограничить контекст жестко. Но “небольшие мозговые усилия” - зависит от того как подаёшь задачу. Если дать тесты и constraints то неплохо справляется даже с нетривиальным
С legacy согласен, у меня есть кусок на PHP 7.2 который агент стабильно ломает если не ограничить контекст жестко. Но “небольшие мозговые усилия” - зависит от того как подаёшь задачу. Если дать тесты и constraints то неплохо справляется даже с нетривиальным
С legacy согласен, у меня есть кусок на PHP 7.2 который агент стабильно ломает если не ограничить контекст жестко. Но “небольшие мозговые усилия” - зависит от того как подаёшь задачу. Если дать тесты и constraints то неплохо справляется даже с нетривиальным
Про джунов в точку, сам вижу это каждый день на ревью. А вот “просто инструмент” который экономит 3 часа в день - ну такой себе “просто”
Потому что самая скучная часть кодинга это был сам кодинг