Комментарии 67
Много платят за рекламу Claude?
Инди-хакер
По-русски это называется темщик.
Задачи, которые раньше делала целая команда, теперь делает один человек с правильным подходом.
Как говорится, "Наивная простота хуже воровства". Вас заставляют работать за десятерых, а вы и рады.
В итоге получилось сделать транскрипцию быстрее, чем у конкурентов на рынке.
Задержка, точность, метрики? Нееее, trust me bro
Забавно что вы пытаетесь оптимизировать именно разработку учитывая ваш бэкграунд, если вы конечно не кривите душой. Любой кто работал в конторах такого масштаба прекрасно знает, что далеко не написание кода является узким местом. А вместо того чтобы сосредоточиться на действительно важных проблемах нам предлагают решить проблему которой нет. И "оптимизировать" то, что оптимизировать проще всего, и что даёт мнимую выгоду в моменте, но ведёт ко многим проблемам в дальнейшем. История боинга в помощь, потому что у вас ИИ как раз выступает как аутсорсер.
Вас заставляют работать за десятерых, а вы и рады.
Зависит от типа оплаты. Если оплачивается результат, а не оклад-зарплата фиксированный, то это в 10 раз больше заработок.
Хорошая шутка :)
Просто норму выработки поднимут, лишних сократят - рынок сбыта не бесконечен. Стоимость оплата труда за 100-150 лет не так сильно изменилась по сравнению с производительностью на человека.
Это если человек в найме работает. А если фрилансер/консультант/стартапщик то просто возьмет больше заказов/быстрее сделает стартап.
Не так выразился, я хотел сказать что стоимость труда просто снизится, найм, не найм, неважно. И в итоге 10 заказов будут приносить как один.
Да и что мешает заказчику вместо передачи разработки на аутсорс вам, чтобы вы передали разработку на аутсорс нейронке, миновать вас как посредника и напрямую обратиться к ИИ? А про стартапы... Как собрались выделяться среди кучи других AI-driven стартапов?
Снизится, но не сразу, будет какой-то период, когда преимущества новой технологии понимают не все и за этот период можно заработать очень хорошие деньги.
Помню например рассказы, когда люди на поисковой оптимизации прямо очень хорошо зарабатывали, когда эта тематика была прямо совсем новой и непривычной.
Ну или еще проще пример - первые люди, которые зашли в мобильные магазины приложений - например для iPhone зарабатывали огромные деньги на очень простых приложениях и играх.
Стартапы - я имел в виду не обязательно AI-driven, просто любой стартап или своя компания на начальной стадии когда когда для своего продукта можно будет писать намного быстрей.
Насчет передачи напрямую нейронке - так это зависит от степени самостоятельности нейронки. Насколько я понимаю даже самые ярые адепты нейронок пока не утверждают, что она может вообще без человека писать. Все еще нужен человек для постановки задачи, расписывания ТЗ для нейронки, контроля результата.
На всякий случай - я прямо ярым адептом нейронок не являюсь, но не являюсь и ненавистником. И автором исходной статьи тоже.
Я умеренный консерватор и не люблю кидаться ни в какие крайности.
Я просто рассуждаю логически, исходя из предоставленных данных.
Скажем у меня бродит мысль наконец попытаться сделать игру своей мечты агрессивно используя нейронки для графики, звука, музыки, видео, ну и в какой-то степени и кода тоже, хотя код мне самому нравится писать, оставив за собой чисто геймдизайн и сюжет и вполне возможно вписаться в эту первую волну. Ну а не добегу, так согреюсь, в смысле все-таки поковыряюсь в интересной теме.
Фрилансерам ещё достаются нормальные заказы? В РФ
сомневаюсь что можно чему то научится если код пишут за тебя
Я начал слушать аудиокниги вместо того чтобы читать и за пол года узнал в 10 раз больше чем за два года чтения до этого
как думаете, какой процент усвоения у такой учебы? Вопрос риторический
Такой вопрос автору: насколько вы контролируете сгенерированный код? Например, по тому, что приложение работает? По тестам, которые предлагает сам ИИ? По своим каким-то тестам? Вы полностью понимаете код? Вы понимаете код в общих чертах? Вы совсем не интересуетесь сгенерированным кодом? Или как-то еще?
Я не автор, но отвечу. Каждая строчка сгенерированного кода проходит код ревью. Каждая строчка мне понятна. Иногда приходится подправлять руками, чтобы было красивее. Иногда даю задачу агенту отрефакторить, чтобы было меньше копипасты. Тесты, как правило, пишет ИИ, так как покрытие так получается лучше, чем руками. У коллег нередко видел, когда ИИ тесты по факту ничего не тестировали - нужен хороший ревьюер в команде.
Каждая строчка сгенерированного кода проходит код ревью.
Поделитесь опытом, как это физически делается? Задаёте ревью той же модели? Другой модели? Сами ревьювите? Если кода много, то как это реально охватить? Особенно если задачи новые, то это по сути дела надо заново все выучить. Сколько на это уходит времени?
Иногда даю задачу агенту отрефакторить, чтобы было меньше копипасты.
Аналогичные вопросы. И ещё, если речь идёт о копипасте, значит вы работаете не в самой IDE, так? Просто из любопытства тогда, какую модель используете? Одну или несколько? И на каких тарифах
Для больших задач я пользуюсь облачным агентом. Даю ему задачу и он создает ветку в репозитории, код, тесты и пулл реквест в основную ветку.
У облачных агентов настроен автоматический код ревью, поэтому когда пулл реквест переводим в режим "готово", автоматически прилетают ревью от агентов. До автоматического код ревью пулл реквест просматривается глазами. Проверяется, что тесты написаны корректно и что они все зеленые. Если требуются небольшие правки, то ветку можно подтянуть к себе и поправить по своему вкусу. Либо можно прямо в код ревью написать агенту, что нужно исправить.
Сколько на это уходит времени?
У меня очень большой инженерный опыт, поэтому без труда все прочитывается за короткое время. Точнее трудно сказать, потому что объем кода бывает очень разный.
Просто из любопытства тогда, какую модель используете? Одну или несколько? И на каких тарифах
GPT 5.2-Codex и Claude Opus 4.5 для агентской разработки. ChatGPT 5.2 Thinking для аналитики. Gemini 3 Pro для дебага и сниппетов в IDE. Подключено 2 тарифа: OpenAI за 20 евро в месяц и Github Copilot за 100 баксов в год.
У облачных агентов настроен автоматический код ревью, поэтому когда пулл реквест переводим в режим "готово", автоматически прилетают ревью от агентов.
Прилетели вопросы на ревью, а дальше вы с ними разбираетесь или агент который делал PR?
Как хотите, так и делаете. Хотите, сами правите код после ревью. Хотите, пишете в комментарии copilot fix after review.
Ну то есть всё равно сами все)
И почему copilot fix, если pr делала другая ллмка например, должна же она фикс делать.
Хочется чтобы агент который сделал PR читал комменты и фиксил их сам. Ну такого нет ещё наверное.
ЗЫ. Кто минусует ответы, камон, нормально же общаемся.
Я написал для примера copilot fix. Есть вариант написать codex fix. Почему-то автоматически исправлять не начинают после код ревью, хотя, в принципе, могли бы. Ну и не все замечанию в ревью требуют исправления, поэтому все же лучше выборочно править.
Понятно что не все. Ну так агент может решать на правах автора пр править или нет.
Есть вариант написать codex fix
написать-то можно) только от этого запустится новый агент без контекста того кто делал пр. А в жизни же не так бывает обычно и замечания фиксит автор, у которого контекст в голове.
Интересное замечание. Сейчас ситуация с агентами такая, что памяти между сессиями они не сохраняют, насколько я знаю. То есть даже если тот же агент будет делать исправления, то для него это будет абсолютно новый код. Вроде бы есть какие-то наработки в направлении создания памяти для агентов, например проект Supermemory. Также можно наколхозить память самому и попросить агента делать заметки по ходу работы в отдельном файле.
пользуюсь облачным агентом
Поясните, пожалуйста, что в вашем понимании есть облачные агенты? И какие есть другие, не облачные? Это просто локальные или что-то еще?
У облачных агентов настроен автоматический код ревью
На всякий случай уточняю - это вы сами настраиваете автоматический ревью? И ещё, ревью делает та же модель, что и писала код? И используете ли перекрёстный ревью от разных моделей? Знаю, что это затратно, но некоторые рекомендуют, но при этом неясно насколько это работает.
GPT 5.2-Codex и Claude Opus 4.5 для агентской разработки. ChatGPT 5.2 Thinking для аналитики. Gemini 3 Pro для дебага и сниппетов в IDE.
Они все с IDE напрямую работают или надо копипастить?
Есть облачные Codex и Github Copilot. Они подключаются к вашему гитхаб репозиторию и могут оттуда читать код и писать в отдельные ветки. Есть консольные варианты, например Codex CLI. Такую штуку можно запустить у себя на компе и она сможет манипулировать вашим кодом, а иногда и всей операционной системой. Есть плагины для VS Code, например тот же Codex CLI, но запускается из IDE; или тот же Copilot плагин, который даёт автодополнения и может помочь отладить код, найти ошибку или объяснить, как код работает.
На всякий случай уточняю - это вы сами настраиваете автоматический ревью? И ещё, ревью делает та же модель, что и писала код?
Да, самому можно настроить. Поскольку у меня подписки на Copilot и Codex, то ревью делают обе. Copilot делает больше замечаний по мелочам. Codex находит серьёзные архитектурные проблемы.
Они все с IDE напрямую работают или надо копипастить?
Копипастить никуда ничего не нужно. В облачном режиме работать можно и без IDE, так как агент имеет доступ к репозиторию. В IDE есть плагин, который позволяет выбирать разные модели для разны задач. Можно открыть окошко с чатом и там спрашивать у ИИ, что и как сделать или просто попросить исправить код.
Такой вопрос автору: насколько вы контролируете сгенерированный код?
Сорри, автор молчит, наверное не то подумал. Поэтому хочу пояснить, эти мои вопросы в блоке выше не для того, чтобы достать автора, а чисто технически интересно как вы это делаете. Потому что мне боязно, например, отдать код LLM. Если это мелкий проект, то не проблема, но вот большой и значимый, тут уже большие сомнения
Пока то, что я видел – надо просматривать до последней строчки.
Т.е. от навыка написания кода можно уйти, а вот навык чтения кода остаётся нужен, как прежде, если не больше.
а это не зависит от значимости проекта? У меня был один пет проект полностью на LLM, так было как-то не важно какой там код, работает значит все нормально. Но вот большие и важные проекты под сомнением.
Косячат-то они независимо от важности проекта :-)
Я вот на днях себе номер на квартиру печатал (3d принтер) – рамка под, в ней паутина, на паутине цифры висят. Проектировал в OpenSCAD ("программа" выдаёт 3d-модель, причём этот язык я не знаю), так вначале просматривал разультаты, а потом и код пришлось просмотреть и поправить руками, ибо он всадил косяк, который в глаза не бросается.
Если всё обложено тестами – может, и без этого можно, но тесты как раз руками писать неохота, их удобно электронному болвану поручить (и их уж точно придётся просмотреть – благо, оптимизировать их не надо, поэтому можно велеть их писать максимально простыми и легко читаемыми).
стал зависим от технологий, причет от технологий которые официально в РФ не работают
И вот статистика, которая меня самого удивила: 8-9 из 10 планов оказываются миражами на 40% или больше.
Это говорит о том, что вы не умеете программировать. Программирование - это не написание кода, как рисование - это не мазюкание кистью по холсту. Программирование - это понимание что ты делаешь и зачем. Представление, как это будет работать, до того, как это будет написано. Также, как художник представляет картину, до того, как она будет нарисована.
Это объясняет и вот такой вывод:
В какой-то момент я понял простую вещь: что бы я ни захотел сделать — функцию, рефакторинг, фикс — агент сделает это лучше, быстрее и надёжнее в 99% случаев
Есть люди, которые считают, что LLM пишет код лучше их, есть люди, которые считают, что LLM пишет код намного хуже их. И те и те правы.
Проблема в том, что сейчас человек, не умеющий программировать, учит людей, умеющих программировать.
А у меня, например, ситуация диаметрально противоположная. Всё, что затрагивает LLM, превращается в говно. Поэтому в код я его не допускаю. Может быть разве тесты, там какашки изолированы. Да и то, практика показывает, что это всё переписывается чуть более, чем полностью практически сразу.
Автор привел свои кейсы, свой опыт, даже указал конретный ИИ инструменты. Вы же, парируя, все обобщаете и упрощаете. Вы говорите, что у вас c LLM выходит одно говно. Может быть дело не в LLM, а в вас, в отличии от автора? Не рассматривали такой вариант?
А может дело в том что задачи для которых LLM применяются разные? Кто-то напишет 100500 сайтов-однодневок и будет трубить о светлом нейросетевом будущем. А кто-то смотрит на объём техдолга (те самые TODO затычки которые LLM так любят, ошибки дизайна и т.д.) и тихо удивляется. И человек делает что-то серьёзное, а не хернёй занимается в отличие от автора? Не рассматривали такой вариант?
Надоело уже. Можете минусить и топить карму, писать что я порвался, бомбанул, да пожалуйста. Все эти AI-driven пет-проекты просто блажь для бездарей и бездельников. Работающий человек, если ему надо, нагенерит себе скриптов под свои задачи, чтобы работу облегчить, и пойдёт дальше работать, а не строчить статьи на хабр о том как программисты не нужны именуя себя AI-генералиссимусом. Пилите там что-то в своё удовольствие, ну пилите дальше, кто вам мешает. Но нет, надо же показать этим программистам что они лохи и потратили годы на изучение того, что мы якобы можем сделать с LLM за день-другой, и надо же показать программистам как работать надо. Подойдите к работягам на стройке и расскажите им как работать надо, узнаете много новых фактов о себе. После этого не удивляйтесь почему все так на ваши высеры реагируют.
Отдельно кстати выпал с этого
планирование важнее кода, а верификация плана важнее самого плана.
Да это любому более-менее адекватному программисту очевидно, за 8-то лет работы в найме наверное должно было понимание прийти, или нонче синьорам-помидорам не досуг?
У автора конечно крайне хамский тон, особенно в предыдущей статье, но я повторю свой ответ другому человеку под другой статьей.
А если посмотреть на динамику?
три года назад: да ИИ даже простейшую функцию на пару строк не может написать
два года назад: да ИИ даже более-менее сложную функцию меньше сотни строк написать не может
год назад: да, ии может написать небольшой модуль, но проект точно не сможет
сегодня: пет-проект ИИ написать может, но крупные проекты в энтерпрайзе нет
еще через год-два-три-четыре?
А ИИшка и сейчас не может написать более-менее сложную функцию меньше сотни строк. Какие модули, вы чего? Какие проекты?
ИИ хорошо пишет только там, где уже мясные программисты вдоль и поперёк выпахали поле. Тудушечку зафигачить на реакте? Да запросто. Крестики-нолики? Не вопрос. Простой платформер? Получите и распишитесь.
Что-то особенное? Ой, всё.
Честно говоря, лично пока не пробовал, жду пока технология немного настоится и шумиха немного осядет (плюс моей работодатель ОЧЕНЬ консервативен), но вот например здесь приводятся гораздо более серьезные проекты - все еще маленькие и все еще очень далекие от энтерпрайза, но вполне приличные.
Глянул.
утилита для конвертации изображений в Windows
запись экрана и редактирование
утилита для ИИ-слоп-постинга
Это всё крестики-нолики. Такого полно в гитхабе. Типа второго есть sharex, первых и третьих вообще тысячи.
Насчёт четвёртого не уверен, маршрутизация звучит серьёзно: это и картография и трассировка маршрута и предиктивный учёт изменений на основе статистики. Но скорее всего там дёргается яндекс-апи и на этом всё. Остальное - шаблоны страничек.
>Такого полно в гитхабе.
Так типичный пет-проект - это как раз "такого полно на гитхабе".
Там явно больше сотни строк и больше одной функции и это вполне себе пет-проект и этого нейронка не могла написать год назад, так что я не вижу здесь противоречий со своим комментарием.
Крестики-нолики как мне кажется будут по коду заметно поменьше, если вы имели в виду буквально такую игру - если фигурально выражались, то тогда сложно понять, что именно вы имели в виду.
Я не совсем понимаю причем здесь вообще "такого полно на гитхабе" если речь о том, что нейронка позволяет сделать то, для чего раньше требовался живой программист и гораздо больше времени.
Как я и писал изначально - это маленькие проекты и им очень далеко до крупных и энтерпрайза, но вопрос не в текущем результате, а в динамике изменений.
Напоминает
10 лет назад появилась помощь в вождении
9 лет назад, крутая помощь в вождении
8 лет назад автопилот уже почти готов
7 лет - вот уже завтра автопилот
6 лет - почти готово...
5 лет - практически всё...
настоящее время - вот уже почти, и будет автопилот
Первые 80% простые, в дальше начинаются корнер кейсы и нюансики.
Готовые ли вы всерьез из-за этого поручиться, что автопилот не допилят никогда?
Причем у автопилота проблема несколько другая - огромная бюрократическая и общественная инерция и риск реальных смертей.
Автопилот уже сейчас ездит лучше и безопаснее человека, но но когда автопилот все-таки попадает в аварию, то тут и открывается ящик Пандоры.
Обществу очень сложно понять абстрактное снижение аварийности и числа потенциальных смертей, а вот единичная реальная смерть моментально бросается на глаза.
В то время в куче других ситуаций вроде все того же программирования есть масса безопасных областей куда ИИ можно запускать намного раньше, может скажем в написание ПО для самолетов, медицины или атомных станций его пускать рано (а может и вообще никогда не пускать), но в стандартную разработку очередной формы с отправкой в базу данных почему бы и нет? А большинство программистов именно ей и занимаются.
Когда нибудь допилят и автопилот. Но вот когда? Прорыв то нам обещают уже вчера.
Проблема llm сейчас не в небезопасности (хотя и в ней тоже), а в неспособности хорошо работать с большой и сложной кодовой базой. Когда нужно не переписать весь код с нуля, а внести исправление.
Ваше указание на то, что три года назад было никак, потом вон как а вот дальше то будет совсем хорошо - мне напоминают анекдот про то, что "у тебя на прошлой неделе мужа не было, на этой есть один, значит по экстраполяции - к концу года у тебя будет больше 45 мужей".
Предыдущий быстрый прогресс - эффект низкой базы, и до llm способных писать большие комплексные, сложные проекты, и корректно вносить в них изменения, мы можем и не дожить (а может это будет завтра).
мне напоминают анекдот про то, что "у тебя на прошлой неделе мужа не было, на этой есть один, значит по экстраполяции - к концу года у тебя будет больше 45 мужей"
Да я сам сколько раз эту картинку постил в том числе здесь на Хабре и в обсуждениях про нейронки. У меня как всегда умеренная точка зрения поэтому меня регулярно минусуют фанатики с обеих сторон и не только в этой тематике.
Умеренность нынче не в моде, в моде кидание в крайности.
Проблема в том что и обратного-то вывода нельзя сделать - никто не гарантирует что нейронки дальше будут развиваться, но никто и не гарантирует что они остановились вот прямо сейчас на текущем моменте.
Неизвестно.
А всё, не будет такого сильного прогресса дальше.
Во-первых, потому что тексты для обучения закончились.
Во-вторых, никогда не будет так, что задал простенький промпт "сделай что мне надо", и ИИ сделал. Сложность объяснения ИИ в большом проекте "что же именно надо сделать" кратно превосходит объяснение, которое нужно предоставить человеку. ИИ туп, хронически теряет контекст конкретного проекта, неизлечимо подвержен фантазиям.
Знаете, пять лет назад то же самое говорили. Более того, говорили что прогресса вообще не будет, что решаемые сейчас ИИ задачи он вообще никогда решить не сможет.
Насчет задания одного простенького промпта "сделай что мне надо" так его и человеку бессмыслено задавать, ИИ способный по нему что-то сделать будет уже намного круче человека.
Зато ии может прочитать их все
Через года 3 вайбкодер будет обезьяной, зависящей от корпораций и сидящей на игле токенов.
Может быть дело не в LLM, а в вас, в отличии от автора?
Я и говорю, что дело во мне. Я умею программировать.
Тут как "готовить"))
Из моего опыта - надо создать архетиктуру, руды с описанием использования, начальные примеры использования и затем тюнить рулы, если модель где-то свернула не туда. Ещё поразительная вещь, как и с классической кодогенерацией - надо менять mindset и создавать более простой болерплейт код - он понятнее для junior и для AI агента. Имхо, нарабатывать опыт составления планов и тюнить рулы)
Когда уже прекратят пропускать такой кал
В каком смысле пропускать? На Хабре нет премодерации, формально правила статья не нарушает, а дальше уже пользователи выражают свое отношение оценками и статье и в карму автора.
Плюс надо учитывать, что это Хабр - здесь самая дрянная статья может послужить отправной точкой для интереснейших комментариев, каких нет больле ни на одной известной мне площадке. Я уже давно сюда в основном ради комментариев хожу.
На всякий случай - я не автор статьи и защищать ее не пытаюсь.
Сегодня прилетел сложный баг на мой код. Два часа трассировал, думал, крутил вертел. Сделал исправление в одном параметре, которое решило проблему.
Тем временем коллега скормил все в llm, полтора часа крутил вертел через агентов, пришел с мр на три сотни строк, переделкой куска архитектуры, солидным изменением логики. И все это выглядело красиво и круто, только вот исходная проблема как была так и осталась.
Вероятно коллега задал вопрос: "что не так с архитектурой?" В ответ получил изменения логики. Если бы коллега знал нюансы и задал бы правильный вопрос: "не ошибся ли я тут где-то в параметрах?", то получил бы правильный ответ, на правильный вопрос. С llm запрос писать надо, как контракт с дьяволом подписывать. Чуть где не так сформулировал и получаешь: "Вы совершенно правы, я сделал точно как вы просили..."
Коллега знал все нюансы, потому что он разбирать этот баг начал раньше меня, и собственно сам мне его и передал) Более того, у него экспертизы по этому коду больше чем у меня т.к. он его писал, а я только дорабатывал. Так что проблема была описана в лучшем виде.
И тут кстати к нему никакого негатива - в том плане что это был осознанный эксперемент от человека, который активно использует llm на своих проектах, но на большой боевой кодовой базе.
Всё звучит логично, но один вопрос: а все ли люди в такой ситуации начали бы честный дебаг, а не костылинг, и все ли ллм-ки бы начали галлюцинировать? Нужна же статистические данные, а не единичные. И мы- не клоны одного-единственного программиста, и ллм-ки разные бывают, а промпты и того разнее.
Нюанс не в этом. Таких моментов в программировании масса, просто масса. Люди, пишущие что агенты все у них сами делают - как проходят мимо этого вообще? Они действительную реальность описывают или хэппи-пассы?
Если llm - вспомогательный инструмент, то такие вопросы ещё имеют смысл. В паре с вопросами производительности и поиска грани - когда генерировать код становится неразумнее чем делать руками (я пока руководствуюсь принципом - если промпт сложно описать, значит llm скорее всего не справится, и если после 1-2х попыток решение не похоже на правду, значит дольше только трата времени).
Но когда llm это безальтернативный инструмент решения задачи - (в статьях вида "я больше не пишу код" или "не знаю языка но генерирую приложения") - вот я не понимаю как дальше действовать такому оператору-llm. Эскалировать задачу на человека программиста что-ли.
Друзья, я пробовал ллм и платные и бесплатные. Да очевидно, что ллм сильно помогает ( например выдернуть реализацию http протокола на boost или подсказать правильный мат алгоритм реализации, чего либо) в этом плане ллм реально избавляет от чтения документации и долгого писания кода, так как реально разжевывает реализацию того, что тебе нужно. Но такой вопрос, есть ли удачные применения ллм, когда у тебя огромный старый проект до 5 миллион строк кода, с большой базой данных на тысячу сложно связанных таблиц. В этом случае ллм вообще применим? Сможет ли ллм починить не явный баг в таком коде, который проявляется например, только при определенном состоянии данных в базе или дописать бизнес логику, которая реально будет работать?
Вообще весь вал статей и их стилистика укладывается в одну параноидальную парадигму: создать стресс у некоторой части аудитории. Эта часть аудитории не самая бедная. При стрессе принимать разумные решения не с руки. И транслируемый паттерн: купи, а то не успеешь. Нет ни аналитических статей, нет ни глубоких разборов. Сколько языков/фреймворков до этого ни выходило - ни один не позиционировался как полная замена чего либо. А тут прям прорвало.
Тут на реальном проде просто ТЗ составить непротиворечивое занимает реально дни какой то не самой сложной фичи, ни до каких промптов еще не дошли, за клавиатуру еще даже не сели. А читаю как фантазеры уже все заревьювили по 10 000 строк в день использования пакетов, которые они до этого момента в глаза не видели.
Вообще весь вал статей и их стилистика укладывается в одну параноидальную парадигму: создать стресс у некоторой части аудитории.
Журналистика так работала всегда, во все времена. В том числе техническая. Тут даже не столько прямой маркетинг, журналисту (блоггер и автор Хабра подвид журналиста) надо привлечь внимание читателя и выделиться на общем фоне.
Плюс еще фактор вроде "религиозного пыла новообращенного" когда человек что-то попробовал, ему это показалось крутым и он фанатично стремится всем добро принести. Тоже не новое явление, ну банально сколько мемов про фанатов Линукса, которые везде рассказывают, какой он крутой.
Сам не пробовал, но из того что я читал, пока описаны проекты намного меньше. И вполне возможно их авторы не видели проектов крупней вообще и не представляют как они работают. Но как я уже писал где-то важна динамика.
Три года назад они не могли пару строчек кода написать, сегодня могут только маленькие проекты, а еще через три года?
Касательно крупных проектов и более опытных программистов я видел статьи когда авторы от вайб-кодинга после двух лет отказывались, может переведу для Хабра.
Отправить llm узучать проект, собирать информацию, описывать разные модули в отдельных файлах, чтобы потом получить общую картину. Это уже станет своего рода схемой работы вашего проекта, что само по себе уже полезно. А потом можно пробовать и дописывать что-то, имея весь этот контекст. Новичка же вы тоже не посадите через пол часа переписывать бизнес-логику крупного проекта...

Полгода без ручного кода: как я стал AI-диспетчером и научился большему, чем за предыдущие два года