Pull to refresh
5
34.4
diffnotes-tech@diffnotes-tech

User

Send message

Собственно да, это и есть основной тезис статьи - через 3-5 лет миддлов не будет потому что их не вырастили из джунов. И тогда компании побегут нанимать, а на рынке пусто.

Дочке бы я не советовал паниковать. ПМИ дает хорошую математическую базу, а это как раз то что AI пока не заменяет. Плюс те кто входит в профессию сейчас, зная AI с первого дня - у них будет преимущество перед теми кто переучивается. Главное не останавливаться на "умею промптить" и копать глубже - алгоритмы, системный дизайн, понимание почему код работает а не только что он делает.

Неделя это ещё рано для выводов, но 12 откликов и 2 собеса - конверсия 16%, это нормально. Главное чтобы собесы продолжались)

Может и AI, а может просто баг после очередного релиза) Но тенденция есть - компании спешат внедрить AI в продакшн быстрее чем успевают протестировать. И когда ломается - никто не знает почему, потому что поведение модели непредсказуемо. С обычным кодом хотя бы можно открыть логи и найти причину.

Рисовать руками - да, это было главное проклятие UML. Если AI сможет генерить и поддерживать диаграммы автоматически из кода - тогда UML получит второй шанс как язык описания, а не как инструмент рисования. Mermaid + AI уже сейчас неплохо работает для простых кейсов.

Вижу нейронку за километр) Но если серьезно - проблема этого списка в том что все эти роли (архитектор, системный аналитик) требуют 5-10 лет опыта в разработке. Нельзя стать архитектором не покодив руками. А если входа в профессию через кодинг больше нет - откуда эти люди возьмутся? Это ровно тот замкнутый круг про который статья.

Про краткосрочное мышление компаний - собственно это и есть talent doom cycle из статьи. Каждый оптимизирует на квартал, а потом все одновременно удивляются что людей нет.

UML как вход в профессию вместо кодинга - не уверен. UML пытались сделать основой разработки уже дважды (Rational Rose, потом MDA), оба раза не взлетело потому что диаграммы слишком абстрактны для реального кода. Но может с AI-агентами которые генерят код по диаграммам получится лучше чем раньше, тут спорить не буду.

Модели не устаревают целиком - базовые знания про алгоритмы, паттерны, SQL, HTTP никуда не деваются. Устаревает знание конкретных API и версий библиотек. И вот тут RAG с актуальными доками решает проблему без дообучения вообще. Claude уже сейчас может читать доки нового фреймворка прямо в контексте и писать под него код.

Что модели только перераспределяют - ну технически да, но экскаватор тоже только перераспределяет землю, а полезен)

Ну я и не обещал рай на земле) Написал статью, собрал данные, привлек внимание к проблеме. Это тоже действие. Не каждый должен идти строить баррикады чтобы иметь право высказаться.

В идеальном мире - да. На практике AI-код как раз генерит много ватдефаков которые выглядят нормально с первого взгляда. 100-200 строк в минуту по AI-коду это слишком быстро - пропустишь что-нибудь хитрое.

UML и CASE возвращаются каждые 10 лет в новой обертке, это да) Но кипиш не в самих инструментах, а в том что на этот раз компании реально перестали нанимать джунов. CASE в 90-х и MDA в нулевых такого эффекта на рынок труда не оказывали. Масштаб другой.

Canary deploys, feature flags, мониторинг метрик - всё правильно, и это работает независимо от того кто написал код. Тут не спорю. Я не предлагаю блокировать AI-коммиты, я использую AI каждый день. Просто говорю что при этом нельзя убирать людей из процесса. AI генерит, человек проверяет, инфраструктура страхует. Убери любое звено - получишь проблемы.

Про зарекаться - тоже верно, год назад я бы не поверил что агенты будут сами PR создавать. Может через год и ревью автоматизируют нормально. Но пока не автоматизировали.

Про скорость изменений - год назад Claude Code нормально не существовал, сейчас я им каждый день пользуюсь. Через год будет что-то что мы сейчас не можем представить. Готовиться к конкретному будущему бесполезно, но качать фундамент - понимание систем, умение дебажить, архитектурное мышление - это не устареет даже если инструменты поменяются полностью)

А, в смысле что модели обучены на текущих фреймворках и когда выйдет что-то принципиально новое - они будут бесполезны? Ну тут скорее вопрос скорости дообучения. Новый фреймворк попадает в training data через пару месяцев после релиза, а с RAG и доками - вообще сразу. React и Next.js модели уже неплохо знают, хотя те тоже обновляются постоянно.

С CVE и статическим анализом согласен - sql injection и buffer overflow ловятся автоматически уже сейчас, тут AI даже не нужен. Но ты сам написал ключевое - архитектурно-логические решения проверять сложнее. А это как раз то что AI

Про песочницы с метриками на каждый коммит - технически возможно, но пока этого нет. Мы обсуждаем реальность 2026, а не 2030. Сейчас ревью всё ещё делают люди, и делают его хуже когда код пришёл от AI. Может через N лет это решится, но talent doom cycle начинается сейчас, а не через N лет.

Выборочная проверка работает когда единицы продукции взаимозаменяемы - болт с браком выкинул, взял другой. С кодом так не работает - каждый кусок уникален и связан с остальными. Пропустил баг в одном PR - он потом всплывает в пяти других местах. Это не конвейер штамповки, это скорее как строить мост - каждый элемент критичен.

Про мощности - вопрос хороший. Сейчас инференс дешевеет быстро, Sonnet стоит копейки по сравнению с год назад. Но если все компании одновременно начнут гонять агентов 24/7 - да, может не хватить. OpenAI уже жалуется на дефицит GPU.

Сценарий "люди дешевле нейросетей" возможен для каких-то задач, особенно если считать не только инференс но и время на промптинг, дебаг и ревью AI-кода. Для тривиальных задач AI дешевле, для сложных - пока нет. Вопрос где эта граница и как быстро она двигается.

Зарплаты при смене работы растут быстрее чем при повышении внутри, это основная причина. Плюс выгорание, скучные проекты, плохой менеджмент. В IT легко менять работу потому что спрос высокий и навыки переносимые.

Не утверждаю что ревью всегда тщательное - конечно нет. Но даже поверхностное человеческое ревью ловит вещи которые AI пропускает, типа "а зачем мы вообще это делаем". AI-ревью проверит синтаксис и паттерны, но не спросит "а точно ли нам нужен этот эндпоинт".

Что ревью станет ботлнеком - уже стало, время на ревью выросло на 19% после внедрения AI-ассистентов. Но решение скорее не убрать ревью, а автоматизировать рутинную часть (линтинг, типовые проверки) и оставить людям архитектурные решения.

По РФ - справедливое замечание, я в статье это не раскрыл. Доступ к Claude/GPT через прямую оплату сложнее, но люди решают через VPN и зарубежные карты, это не rocket science. Плюс есть API-прокси которые принимают рубли.

Из локальных - GigaCode от Сбера, Sourcecraft от Яндекса, но они пока сильно слабее западных аналогов для кодинга. Алиса для разработки не годится вообще. Open source модели (Qwen, Llama) можно гонять локально на своем железе, тут вообще никаких ограничений.

Для РФ главный эффект скорее не прямой (компания купила Claude и уволила джунов), а косвенный - западные компании сокращают найм, аутсорс из РФ падает, и общий тренд "AI вместо людей" доезжает с лагом. Plesser выше правильно писал что лаг может быть большой.

Фреймворки меняются, но базовые архитектуры живут долго. Трансформерам уже 8 лет и пока замены не видно. Llama, Qwen, Mistral - всё это open source и никуда не денется даже если OpenAI завтра закроется)

1
23 ...

Information

Rating
251-st
Registered
Activity

Specialization

Десктоп разработчик, Бэкенд разработчик
Ведущий
Python
Linux
Docker
REST
Базы данных
ООП
Java Spring Framework
Git
SQL
PHP