По РФ да, тут AI-найм пока не так давит как в штатах. Но тренды обычно доезжают с лагом в пару лет.
Общая безработица не покажет ничего - IT-джуны это капля в море всего рынка труда. Надо смотреть entry-level tech отдельно, а там по Revelio Labs минус 35% в US. При этом вакансий "джун с AI-скилами" тоже не появилось - компании просто закрыли позиции и всё. Если бы дело было в скилсете - были бы новые вакансии с другими требованиями. А их нет.
С AI 150К строк за 3 года это ещё скромно, некоторые за неделю столько генерят) Другой вопрос что потом 60% из этого надо переписывать, но это уже проблемы будущего себя.
Собственно об этом и статья - talent doom cycle. Все понимают что сеньоры не скачиваются из интернета, но каждая отдельная компания думает "ну мы-то потом переманим у соседей". А соседи думают то же самое. В итоге через 5 лет все одновременно придут на рынок за мидлами которых никто не вырастил.
Про продуктивность vs качество - зависит от того как использовать. Если принимать всё что модель выдает без ревью - да, качество падает. Если использовать как черновик и дорабатывать - продуктивность растет без потери качества, но и прирост скромнее чем обещают маркетологи.
За чей счет конвейер джунов - вот это больной вопрос. Раньше компании платили за обучение джунов неявно, через менторство. Сейчас они эту статью срезали. Кто подхватит - непонятно. Вузы не тянут, курсы тем более. Может государство, но это уже из области фантастики.
Ну там рост занятости для 35-49 это скорее про то что опытных держат и доплачивают, а не про то что вкатунов берут. Василию в 40 без опыта будет даже сложнее чем джуну в 22 - у того хотя бы ожидания по зарплате ниже.
Про 1000+ откликов - это же как раз следствие того что джунов не нанимают. Люди никуда не делись, вакансии делись. Дефицит не сейчас, а через 3-5 лет когда нынешние сеньоры начнут уходить а замены не будет.
Про техдолг по языкам - напиши, мне было бы интересно почитать. Даже без строгих пруфов, наблюдения из практики тоже ценны. Минусы на хабре ставят за всё подряд, это не показатель.
Напиши бота на AI который мониторит hh.ru и посмотри как entry-level вакансии тают в реальном времени) Но если серьезно - безработица среди выпускников CS в US сейчас 6.1%, computer engineering 7.5%. Gen Z (22-27) сидит на 7.4% при национальном 4.2%. Stanford зафиксировал падение занятости 22-25 летних разработчиков на 20% от пика 2022. Данные в основном по US/UK правда, по РФ такой детализации я не нашел.
Справедливо. Если менеджмент воспринимает код как commoditized ресурс, то и людей которые с ним работают будут оценивать соответственно. Даже если спрос вырастет - цена может не вырасти, потому что "ну вам же AI помогает, значит работа проще". Тут я оптимизм свой переоценил наверное.
Может и так, но пока что LLM за два года научились генерить код быстрее, но не научились его поддерживать. Генерация и поддержка - разные задачи, и вторая пока что масштабируется плохо. Если через 3 года модели будут сами себя дебажить в проде в три ночи - окей, стройка. Но я бы пока не списывал со счетов сценарий где код нагенерили а чинить некому.
Ну да, собственно в этом и проблема. Accept нажал ты, но решение принимала модель, а разбираться потом тебе. Классический mismatch между тем кто авторизовал и кто понимает что происходит)
Я не говорю что джуны не нужны ) я говорю что их перестали нанимать. Это разные вещи. Данные по найму однозначные: entry-level вакансии упали на 35-67% в зависимости от рынка. Компании решили что не нужны, а правы они или нет - покажет время.
Аналогия с трактором не совсем работает тут. Когда пришел трактор, тракториста всё равно надо было учить - и его учили. А сейчас компании говорят "зачем учить тракториста если трактор сам ездит". Только он пока не совсем сам ездит, и через 3 года когда понадобятся трактористы - учить будет некого.
Парадокс Джевонса тут хорошо ложится, я про него не подумал когда писал. Если код станет дешевым ресурсом - его будут производить больше, и потребность в людях которые разбираются в этом коде только вырастет. Вопрос только в тайминге - разрыв между фазой "увольняем" и фазой "ищем со свечкой" может быть болезненным.
Про безопасность - это самый сильный аргумент по-моему. У Veracode 45% AI-кода содержит уязвимости, а атакующим достаточно одной. Асимметрия только растет. И тут промптер не поможет, нужен человек который понимает что происходит под капотом.
Сочувствую что оказался за бортом. Надеюсь ненадолго.
Ахах, git blame на самого себя это классика. Но тут хотя бы есть шанс что вспомнишь контекст - "а, точно, это я в пятницу вечером фиксил тот баг". С нейронкой ты даже этого не вспомнишь, потому что контекста принятия решения у тебя вообще не было. Ты просто нажал accept.
Ну да, сеньор никуда не девается. Имелось в виду что менеджер смотрит на бюджет и думает "зачем нанимать двух джунов если сеньор с подпиской закроет тот же объем задач". Подписка заменяет джунов, не сеньора. Формулировка все же в статье была неудачная, @blik13 правильно поправил)
Вот это ровно то что Anthropic называет "permanent beginners" - ты ревьюишь код, вроде понимаешь, но ментальная модель не строится потому что ты его не писал руками. Читать и писать это разные процессы для мозга, как ты и говоришь про лекции.
А про легаси переписанное нейронкой - тут даже хуже. Раньше хоть один человек помнил почему вот этот костыль тут стоит. Теперь никто не помнит, и в коде тоже не написано, потому что AI не оставляет комментарии "сделал так потому что API банка возвращает 500 по четвергам". У тебя получается код который работает по неизвестным причинам, и это по сути тот же техдолг только замаскированный.
Можно, если эффект большой и направление совпадает с другими данными. 16 человек - это не основа для policy decisions, согласен. Но когда субъективная оценка расходится с объективной на 39 п.п. - это как минимум повод копнуть дальше, что METR и сделали во втором раунде. Я же не пишу "доказано что AI замедляет", я пишу что люди переоценивают свой буст. И вот это подтверждается не только METR - тот же Uplevel на 800 разработчиках показал похожую картину с perceived vs actual productivity.
Это специально написано от лица менеджера который так думает, не как мой тезис. Дальше по тексту я как раз разбираю почему эта логика ломается - и про техдолг, и про talent doom cycle. Фраза утрированная, да, но менеджеры реально так рассуждают когда смотрят в табличку с костами. Собственно в этом и проблема.
По METR - да, 16 человек это мало, я согласен. Я специально написал что они запустили второй раунд, и там результаты уже другие (30-50% отказались работать без AI). Первый эксперимент я привожу не как доказательство что AI бесполезен - он явно не бесполезен - а как пример разрыва между ощущением и реальностью. Этот разрыв сам по себе интересен даже на малой выборке.
А насчет "не умели разрабатывать с AI" - там были опытные контрибьюторы в проекты с 22K+ звезд, не студенты. Но fair point, навыки работы с AI тоже скилл который тогда был у мало кого.
Основной тезис статьи вообще не про то что AI не работает. Он работает. Проблема в другом - что конвейер подготовки людей ломается пока все увлечены оптимизацией.
Спека в git, модель под ней обновляется. Один .cs.md файл на Opus 4.6 и на Opus 5 даст разный код. В roadmap написано "при удалении кода его можно восстановить из спецификации" - но из какой версии модели восстанавливать? Обычные компиляторы дают reproducible builds, тут каждое обновление модели потенциально меняет реализацию
По РФ да, тут AI-найм пока не так давит как в штатах. Но тренды обычно доезжают с лагом в пару лет.
Общая безработица не покажет ничего - IT-джуны это капля в море всего рынка труда. Надо смотреть entry-level tech отдельно, а там по Revelio Labs минус 35% в US. При этом вакансий "джун с AI-скилами" тоже не появилось - компании просто закрыли позиции и всё. Если бы дело было в скилсете - были бы новые вакансии с другими требованиями. А их нет.
С AI 150К строк за 3 года это ещё скромно, некоторые за неделю столько генерят) Другой вопрос что потом 60% из этого надо переписывать, но это уже проблемы будущего себя.
Собственно об этом и статья - talent doom cycle. Все понимают что сеньоры не скачиваются из интернета, но каждая отдельная компания думает "ну мы-то потом переманим у соседей". А соседи думают то же самое. В итоге через 5 лет все одновременно придут на рынок за мидлами которых никто не вырастил.
Про продуктивность vs качество - зависит от того как использовать. Если принимать всё что модель выдает без ревью - да, качество падает. Если использовать как черновик и дорабатывать - продуктивность растет без потери качества, но и прирост скромнее чем обещают маркетологи.
За чей счет конвейер джунов - вот это больной вопрос. Раньше компании платили за обучение джунов неявно, через менторство. Сейчас они эту статью срезали. Кто подхватит - непонятно. Вузы не тянут, курсы тем более. Может государство, но это уже из области фантастики.
Ну там рост занятости для 35-49 это скорее про то что опытных держат и доплачивают, а не про то что вкатунов берут. Василию в 40 без опыта будет даже сложнее чем джуну в 22 - у того хотя бы ожидания по зарплате ниже.
Про 1000+ откликов - это же как раз следствие того что джунов не нанимают. Люди никуда не делись, вакансии делись. Дефицит не сейчас, а через 3-5 лет когда нынешние сеньоры начнут уходить а замены не будет.
Про техдолг по языкам - напиши, мне было бы интересно почитать. Даже без строгих пруфов, наблюдения из практики тоже ценны. Минусы на хабре ставят за всё подряд, это не показатель.
Напиши бота на AI который мониторит hh.ru и посмотри как entry-level вакансии тают в реальном времени) Но если серьезно - безработица среди выпускников CS в US сейчас 6.1%, computer engineering 7.5%. Gen Z (22-27) сидит на 7.4% при национальном 4.2%. Stanford зафиксировал падение занятости 22-25 летних разработчиков на 20% от пика 2022. Данные в основном по US/UK правда, по РФ такой детализации я не нашел.
Справедливо. Если менеджмент воспринимает код как commoditized ресурс, то и людей которые с ним работают будут оценивать соответственно. Даже если спрос вырастет - цена может не вырасти, потому что "ну вам же AI помогает, значит работа проще". Тут я оптимизм свой переоценил наверное.
Может и так, но пока что LLM за два года научились генерить код быстрее, но не научились его поддерживать. Генерация и поддержка - разные задачи, и вторая пока что масштабируется плохо. Если через 3 года модели будут сами себя дебажить в проде в три ночи - окей, стройка. Но я бы пока не списывал со счетов сценарий где код нагенерили а чинить некому.
Ну да, собственно в этом и проблема. Accept нажал ты, но решение принимала модель, а разбираться потом тебе. Классический mismatch между тем кто авторизовал и кто понимает что происходит)
Я не говорю что джуны не нужны )
я говорю что их перестали нанимать. Это разные вещи. Данные по найму однозначные: entry-level вакансии упали на 35-67% в зависимости от рынка. Компании решили что не нужны, а правы они или нет - покажет время.
Аналогия с трактором не совсем работает тут. Когда пришел трактор, тракториста всё равно надо было учить - и его учили. А сейчас компании говорят "зачем учить тракториста если трактор сам ездит". Только он пока не совсем сам ездит, и через 3 года когда понадобятся трактористы - учить будет некого.
Парадокс Джевонса тут хорошо ложится, я про него не подумал когда писал. Если код станет дешевым ресурсом - его будут производить больше, и потребность в людях которые разбираются в этом коде только вырастет. Вопрос только в тайминге - разрыв между фазой "увольняем" и фазой "ищем со свечкой" может быть болезненным.
Про безопасность - это самый сильный аргумент по-моему. У Veracode 45% AI-кода содержит уязвимости, а атакующим достаточно одной. Асимметрия только растет. И тут промптер не поможет, нужен человек который понимает что происходит под капотом.
Сочувствую что оказался за бортом. Надеюсь ненадолго.
Cправедливо, ссылки надо было ставить
Спасибо за замечание)
Ахах, git blame на самого себя это классика. Но тут хотя бы есть шанс что вспомнишь контекст - "а, точно, это я в пятницу вечером фиксил тот баг". С нейронкой ты даже этого не вспомнишь, потому что контекста принятия решения у тебя вообще не было. Ты просто нажал accept.
Ну да, сеньор никуда не девается. Имелось в виду что менеджер смотрит на бюджет и думает "зачем нанимать двух джунов если сеньор с подпиской закроет тот же объем задач". Подписка заменяет джунов, не сеньора. Формулировка все же в статье была неудачная, @blik13 правильно поправил)
Вот это ровно то что Anthropic называет "permanent beginners" - ты ревьюишь код, вроде понимаешь, но ментальная модель не строится потому что ты его не писал руками. Читать и писать это разные процессы для мозга, как ты и говоришь про лекции.
А про легаси переписанное нейронкой - тут даже хуже. Раньше хоть один человек помнил почему вот этот костыль тут стоит. Теперь никто не помнит, и в коде тоже не написано, потому что AI не оставляет комментарии "сделал так потому что API банка возвращает 500 по четвергам". У тебя получается код который работает по неизвестным причинам, и это по сути тот же техдолг только замаскированный.
Можно, если эффект большой и направление совпадает с другими данными. 16 человек - это не основа для policy decisions, согласен. Но когда субъективная оценка расходится с объективной на 39 п.п. - это как минимум повод копнуть дальше, что METR и сделали во втором раунде. Я же не пишу "доказано что AI замедляет", я пишу что люди переоценивают свой буст. И вот это подтверждается не только METR - тот же Uplevel на 800 разработчиках показал похожую картину с perceived vs actual productivity.
Это специально написано от лица менеджера который так думает, не как мой тезис. Дальше по тексту я как раз разбираю почему эта логика ломается - и про техдолг, и про talent doom cycle.
Фраза утрированная, да, но менеджеры реально так рассуждают когда смотрят в табличку с костами. Собственно в этом и проблема.
По METR - да, 16 человек это мало, я согласен. Я специально написал что они запустили второй раунд, и там результаты уже другие (30-50% отказались работать без AI). Первый эксперимент я привожу не как доказательство что AI бесполезен - он явно не бесполезен - а как пример разрыва между ощущением и реальностью. Этот разрыв сам по себе интересен даже на малой выборке.
А насчет "не умели разрабатывать с AI" - там были опытные контрибьюторы в проекты с 22K+ звезд, не студенты. Но fair point, навыки работы с AI тоже скилл который тогда был у мало кого.
Основной тезис статьи вообще не про то что AI не работает. Он работает. Проблема в другом - что конвейер подготовки людей ломается пока все увлечены оптимизацией.
Спека в git, модель под ней обновляется. Один .cs.md файл на Opus 4.6 и на Opus 5 даст разный код. В roadmap написано "при удалении кода его можно восстановить из спецификации" - но из какой версии модели восстанавливать? Обычные компиляторы дают reproducible builds, тут каждое обновление модели потенциально меняет реализацию