Pull to refresh
32K+
15
diffnotes-tech@diffnotes-tech

User

70,9
Rating
5
Subscribers
Send message

Модели не устаревают целиком - базовые знания про алгоритмы, паттерны, SQL, HTTP никуда не деваются. Устаревает знание конкретных API и версий библиотек. И вот тут RAG с актуальными доками решает проблему без дообучения вообще. Claude уже сейчас может читать доки нового фреймворка прямо в контексте и писать под него код.

Что модели только перераспределяют - ну технически да, но экскаватор тоже только перераспределяет землю, а полезен)

Ну я и не обещал рай на земле) Написал статью, собрал данные, привлек внимание к проблеме. Это тоже действие. Не каждый должен идти строить баррикады чтобы иметь право высказаться.

В идеальном мире - да. На практике AI-код как раз генерит много ватдефаков которые выглядят нормально с первого взгляда. 100-200 строк в минуту по AI-коду это слишком быстро - пропустишь что-нибудь хитрое.

UML и CASE возвращаются каждые 10 лет в новой обертке, это да) Но кипиш не в самих инструментах, а в том что на этот раз компании реально перестали нанимать джунов. CASE в 90-х и MDA в нулевых такого эффекта на рынок труда не оказывали. Масштаб другой.

Canary deploys, feature flags, мониторинг метрик - всё правильно, и это работает независимо от того кто написал код. Тут не спорю. Я не предлагаю блокировать AI-коммиты, я использую AI каждый день. Просто говорю что при этом нельзя убирать людей из процесса. AI генерит, человек проверяет, инфраструктура страхует. Убери любое звено - получишь проблемы.

Про зарекаться - тоже верно, год назад я бы не поверил что агенты будут сами PR создавать. Может через год и ревью автоматизируют нормально. Но пока не автоматизировали.

Про скорость изменений - год назад Claude Code нормально не существовал, сейчас я им каждый день пользуюсь. Через год будет что-то что мы сейчас не можем представить. Готовиться к конкретному будущему бесполезно, но качать фундамент - понимание систем, умение дебажить, архитектурное мышление - это не устареет даже если инструменты поменяются полностью)

А, в смысле что модели обучены на текущих фреймворках и когда выйдет что-то принципиально новое - они будут бесполезны? Ну тут скорее вопрос скорости дообучения. Новый фреймворк попадает в training data через пару месяцев после релиза, а с RAG и доками - вообще сразу. React и Next.js модели уже неплохо знают, хотя те тоже обновляются постоянно.

С CVE и статическим анализом согласен - sql injection и buffer overflow ловятся автоматически уже сейчас, тут AI даже не нужен. Но ты сам написал ключевое - архитектурно-логические решения проверять сложнее. А это как раз то что AI

Про песочницы с метриками на каждый коммит - технически возможно, но пока этого нет. Мы обсуждаем реальность 2026, а не 2030. Сейчас ревью всё ещё делают люди, и делают его хуже когда код пришёл от AI. Может через N лет это решится, но talent doom cycle начинается сейчас, а не через N лет.

Выборочная проверка работает когда единицы продукции взаимозаменяемы - болт с браком выкинул, взял другой. С кодом так не работает - каждый кусок уникален и связан с остальными. Пропустил баг в одном PR - он потом всплывает в пяти других местах. Это не конвейер штамповки, это скорее как строить мост - каждый элемент критичен.

Про мощности - вопрос хороший. Сейчас инференс дешевеет быстро, Sonnet стоит копейки по сравнению с год назад. Но если все компании одновременно начнут гонять агентов 24/7 - да, может не хватить. OpenAI уже жалуется на дефицит GPU.

Сценарий "люди дешевле нейросетей" возможен для каких-то задач, особенно если считать не только инференс но и время на промптинг, дебаг и ревью AI-кода. Для тривиальных задач AI дешевле, для сложных - пока нет. Вопрос где эта граница и как быстро она двигается.

Зарплаты при смене работы растут быстрее чем при повышении внутри, это основная причина. Плюс выгорание, скучные проекты, плохой менеджмент. В IT легко менять работу потому что спрос высокий и навыки переносимые.

Не утверждаю что ревью всегда тщательное - конечно нет. Но даже поверхностное человеческое ревью ловит вещи которые AI пропускает, типа "а зачем мы вообще это делаем". AI-ревью проверит синтаксис и паттерны, но не спросит "а точно ли нам нужен этот эндпоинт".

Что ревью станет ботлнеком - уже стало, время на ревью выросло на 19% после внедрения AI-ассистентов. Но решение скорее не убрать ревью, а автоматизировать рутинную часть (линтинг, типовые проверки) и оставить людям архитектурные решения.

По РФ - справедливое замечание, я в статье это не раскрыл. Доступ к Claude/GPT через прямую оплату сложнее, но люди решают через VPN и зарубежные карты, это не rocket science. Плюс есть API-прокси которые принимают рубли.

Из локальных - GigaCode от Сбера, Sourcecraft от Яндекса, но они пока сильно слабее западных аналогов для кодинга. Алиса для разработки не годится вообще. Open source модели (Qwen, Llama) можно гонять локально на своем железе, тут вообще никаких ограничений.

Для РФ главный эффект скорее не прямой (компания купила Claude и уволила джунов), а косвенный - западные компании сокращают найм, аутсорс из РФ падает, и общий тренд "AI вместо людей" доезжает с лагом. Plesser выше правильно писал что лаг может быть большой.

Фреймворки меняются, но базовые архитектуры живут долго. Трансформерам уже 8 лет и пока замены не видно. Llama, Qwen, Mistral - всё это open source и никуда не денется даже если OpenAI завтра закроется)

Ну если AI-пузырь лопнет раньше чем через 3 года - тогда проблема с джунами решится сама собой, компании вернутся к найму людей) Но даже если OpenAI схлопнется, модели-то никуда не денутся - open source уже достаточно хорош. Скорее подешевеет инференс и AI станет ещё доступнее, а не исчезнет.

Ну может у вас команда хорошая, поэтому и не уходят) Но в среднем по рынку люди двигаются - кто в менеджмент, кто в свои проекты, кто просто выгорает и берет паузу. Не завтра, но за 10 лет состав любой команды обновляется прилично.

Про "куда пристраивать сеньоров" - пока что такой проблемы нет, сеньоры нарасхват. Но если AI реально начнет закрывать их задачи - тогда да, может и придется пристраивать.
Посмотрим)

Ну а что конкретно предлагаешь делать? Отказаться от AI из принципа и вылететь с работы? Я описал проблему и привел данные. Решать её должны те у кого есть на это рычаги - компании и государство. У меня рычаг - статья на хабре, я его и дернул.

Про аварийный режим с маленькими детьми - жиза. Когда спал 4 часа и мозг работает на 60%, LLM реально вытягивает. Не потому что он умный, а потому что берет на себя ту часть работы где нужна механическая внимательность - скобки, импорты, бойлерплейт. Ты думаешь только про логику. Но это именно костыль, а не усиление.

Не факт что бустит сильнее. Скорость набора текста растет - да, но джун с AI всё равно не понимает что он написал. Anthropic research показали что AI-assisted джуны потом хуже решают задачи самостоятельно чем те кто учился руками. Буст иллюзорный - ты быстрее выдаешь код, но не быстрее растешь как инженер. По сути джун с AI это обезьяна с гранатой - урон наносит, но непредсказуемо кому. Менеджеры это чувствуют, поэтому и не нанимают.

Да, domix32 выше про это же писал - массовые сокращения 2023-2024 выбросили на рынок кучу опытных людей. Пузырь + AI + экономика - три фактора одновременно.

Information

Rating
112-th
Registered
Activity

Specialization

Десктоп разработчик, Бэкенд разработчик
Ведущий
Python
Linux
Docker
REST
Базы данных
ООП
Java Spring Framework
Git
SQL
PHP