Pull to refresh
6
29.3
diffnotes-tech@diffnotes-tech

User

Send message

А, в смысле что модели обучены на текущих фреймворках и когда выйдет что-то принципиально новое - они будут бесполезны? Ну тут скорее вопрос скорости дообучения. Новый фреймворк попадает в training data через пару месяцев после релиза, а с RAG и доками - вообще сразу. React и Next.js модели уже неплохо знают, хотя те тоже обновляются постоянно.

С CVE и статическим анализом согласен - sql injection и buffer overflow ловятся автоматически уже сейчас, тут AI даже не нужен. Но ты сам написал ключевое - архитектурно-логические решения проверять сложнее. А это как раз то что AI

Про песочницы с метриками на каждый коммит - технически возможно, но пока этого нет. Мы обсуждаем реальность 2026, а не 2030. Сейчас ревью всё ещё делают люди, и делают его хуже когда код пришёл от AI. Может через N лет это решится, но talent doom cycle начинается сейчас, а не через N лет.

Выборочная проверка работает когда единицы продукции взаимозаменяемы - болт с браком выкинул, взял другой. С кодом так не работает - каждый кусок уникален и связан с остальными. Пропустил баг в одном PR - он потом всплывает в пяти других местах. Это не конвейер штамповки, это скорее как строить мост - каждый элемент критичен.

Про мощности - вопрос хороший. Сейчас инференс дешевеет быстро, Sonnet стоит копейки по сравнению с год назад. Но если все компании одновременно начнут гонять агентов 24/7 - да, может не хватить. OpenAI уже жалуется на дефицит GPU.

Сценарий "люди дешевле нейросетей" возможен для каких-то задач, особенно если считать не только инференс но и время на промптинг, дебаг и ревью AI-кода. Для тривиальных задач AI дешевле, для сложных - пока нет. Вопрос где эта граница и как быстро она двигается.

Зарплаты при смене работы растут быстрее чем при повышении внутри, это основная причина. Плюс выгорание, скучные проекты, плохой менеджмент. В IT легко менять работу потому что спрос высокий и навыки переносимые.

Не утверждаю что ревью всегда тщательное - конечно нет. Но даже поверхностное человеческое ревью ловит вещи которые AI пропускает, типа "а зачем мы вообще это делаем". AI-ревью проверит синтаксис и паттерны, но не спросит "а точно ли нам нужен этот эндпоинт".

Что ревью станет ботлнеком - уже стало, время на ревью выросло на 19% после внедрения AI-ассистентов. Но решение скорее не убрать ревью, а автоматизировать рутинную часть (линтинг, типовые проверки) и оставить людям архитектурные решения.

По РФ - справедливое замечание, я в статье это не раскрыл. Доступ к Claude/GPT через прямую оплату сложнее, но люди решают через VPN и зарубежные карты, это не rocket science. Плюс есть API-прокси которые принимают рубли.

Из локальных - GigaCode от Сбера, Sourcecraft от Яндекса, но они пока сильно слабее западных аналогов для кодинга. Алиса для разработки не годится вообще. Open source модели (Qwen, Llama) можно гонять локально на своем железе, тут вообще никаких ограничений.

Для РФ главный эффект скорее не прямой (компания купила Claude и уволила джунов), а косвенный - западные компании сокращают найм, аутсорс из РФ падает, и общий тренд "AI вместо людей" доезжает с лагом. Plesser выше правильно писал что лаг может быть большой.

Фреймворки меняются, но базовые архитектуры живут долго. Трансформерам уже 8 лет и пока замены не видно. Llama, Qwen, Mistral - всё это open source и никуда не денется даже если OpenAI завтра закроется)

Ну если AI-пузырь лопнет раньше чем через 3 года - тогда проблема с джунами решится сама собой, компании вернутся к найму людей) Но даже если OpenAI схлопнется, модели-то никуда не денутся - open source уже достаточно хорош. Скорее подешевеет инференс и AI станет ещё доступнее, а не исчезнет.

Ну может у вас команда хорошая, поэтому и не уходят) Но в среднем по рынку люди двигаются - кто в менеджмент, кто в свои проекты, кто просто выгорает и берет паузу. Не завтра, но за 10 лет состав любой команды обновляется прилично.

Про "куда пристраивать сеньоров" - пока что такой проблемы нет, сеньоры нарасхват. Но если AI реально начнет закрывать их задачи - тогда да, может и придется пристраивать.
Посмотрим)

Ну а что конкретно предлагаешь делать? Отказаться от AI из принципа и вылететь с работы? Я описал проблему и привел данные. Решать её должны те у кого есть на это рычаги - компании и государство. У меня рычаг - статья на хабре, я его и дернул.

Про аварийный режим с маленькими детьми - жиза. Когда спал 4 часа и мозг работает на 60%, LLM реально вытягивает. Не потому что он умный, а потому что берет на себя ту часть работы где нужна механическая внимательность - скобки, импорты, бойлерплейт. Ты думаешь только про логику. Но это именно костыль, а не усиление.

Не факт что бустит сильнее. Скорость набора текста растет - да, но джун с AI всё равно не понимает что он написал. Anthropic research показали что AI-assisted джуны потом хуже решают задачи самостоятельно чем те кто учился руками. Буст иллюзорный - ты быстрее выдаешь код, но не быстрее растешь как инженер. По сути джун с AI это обезьяна с гранатой - урон наносит, но непредсказуемо кому. Менеджеры это чувствуют, поэтому и не нанимают.

Да, domix32 выше про это же писал - массовые сокращения 2023-2024 выбросили на рынок кучу опытных людей. Пузырь + AI + экономика - три фактора одновременно.

Ну так экскаваторщик зарабатывает больше пока экскаваторов мало. А когда у каждого землекопа появился экскаватор - ты уже не уникальный, ты просто норма. И платят тебе как раньше землекопу, только теперь ещё и за экскаватор сам плати)

Сеньоры уходят на пенсию, в менеджмент, в свои проекты, выгорают. Текучка в IT всегда была высокая - средний срок на одном месте 2-3 года. Вопрос не в том куда они денутся, а в том кто придет на их место.

Про 10 этапов собесов - это уже сейчас реальность для многих. А джуны лезут потому что им 10 лет рассказывали что IT это золотая жила. Теперь жила подсохла а люди уже отучились.

Ахах, и блоха-то подкованная, только танцевать перестала) Аналогия всё точнее становится.

CVE от живых программистов - согласен, тут нет монополии у AI. Разница в масштабе: человек пишет уязвимость раз в N строк, AI генерит на порядок больше кода и соответственно больше уязвимостей в абсолюте. Плюс ревью AI-кода люди делают менее внимательно - это уже измерено.

Veracode - данные 2024, да, модели с тех пор сильно подросли. Но проблема не только в качестве генерации, а в том как люди с этим кодом работают. Даже идеальная модель не спасет если разработчик жмет accept не глядя.

В точку. Левша предупредил, Левша помер, ружья продолжили чистить кирпичом. Через 150 лет ничего не изменилось, только вместо ружей - кодовые базы.

Осознанный подход. Anthropic research как раз про это пишут - "permanent beginners" эффект, когда AI сглаживает кривую обучения и человек не строит "ментальную мышцу". Ты сейчас эту мышцу качаешь, и потом AI будет усиливать то что уже есть, а не заменять то чего нет. Через пару лет когда перейдешь на AI-инструменты - будешь понимать что он генерит и ловить ошибки, а не жать accept вслепую.

Information

Rating
285-th
Registered
Activity

Specialization

Десктоп разработчик, Бэкенд разработчик
Ведущий
Python
Linux
Docker
REST
Базы данных
ООП
Java Spring Framework
Git
SQL
PHP