Куча новых открытий с помощью ИИ, прогресс ускоряется, ура!
Реальность:
Куча новых статей, прекрасно оформленных, разложенных по полочкам, и с минимумом научного вклада. На первый взгляд они великолепны. Кто будет это все разбирать? Правильно, другая нейронка — люди не успевают! Что из этого получается? Херня получается — бардак и хаос, как с рынком найма сейчас, реально полезные статьи тонут в океане просто_статей, а вычленить их никто не может.
Если LLM усиливает понимающего архитектора — получается boost
Если LLM усиливает того, кто не понимает предметную область — усиливаются дыры
Это выводы бессмысленные.
По сути, LLM провоцирует нарушение понимания системы. Можно сколько угодно повторять правила, но они будут нарушены и LLM-кой и человеком, потому что 9 раз прокатило, значит и на 10-й прокатит!
Передергивание на передергивание, даже лень объяснять™.
"В ноябре у меня было 80% ручного кода. В декабре стало наоборот: 80% агентного кода и 20% правок вручную.
Один программист посмотрел на выдачу ИИ, долго вникал, фэйспалмнул, и написал все сам с нуля. У него получилось 100% ручного кода.
Другой программист посмотрел на выдачу ИИ, долго вникал, фэйспалмнул, и исправил 10 ошибок в 10 разных местах, по 5 символов каждый. У него получилось 5% ручного кода и 95% агентского.
С точки зрения автора, это принципиально разные ситуации!
Claude Opus 4.5 Thinking — 83.6% успешных реальных задач.
GPT-5.2 High — 80.6% (и всего 16 уязвимостей на миллион строк!).
Аргумент «оно пишет нерабочий код» официально умер. Оно пишет. Оно работает.
О, точно, оно пишет нерабочий код лишь в 20% случаев! То есть, нужно досконально проверить и продумать только 20% кода? Или как это работает?
Но бизнес платит нам не за идеальный синтаксис. Бизнес платит за фичи. Если AI делает фичу за 10 минут и $0.05, а вы — за 2 дня и $500, у меня для вас плохие новости.
Если бизнес платит «за фичи», без учета технического долга, то у меня для этого бизнеса плохие новости.
Исследователи пишут: “Управляемость не стоит считать само собой разумеющейся, ее необходимо проверять экспериментально, и наш инструмент дает такую возможность”.
Ага. Ну вот вы проверили — она так себе, на троечку. Что дальше делать?
ИИ-агенты уже могут выполнять задачи, которые сегодня занимают 44% рабочего времени в США
Да. Только, к сожалению, нельзя заранее понять, для каждой отдельной задачи, входит она в эти 44% или нет — то есть, справится с ней ИИ или нет.
Это как правило 20% / 80% про вложенные усилия и ценность результата. Статистически все так, но это только пост-фактум ясно. А заранее не понятно, какие именно 20% усилий дадут эти 80% результата!
Проблема, собственно, в том, что это люди не толерантные к стрессу.
Как те, кто вырос в стерильной комнате и теперь боится любой бактерии.
Термин «токсичность» подразумевает, что все проблемы от неправильных, токсичных людей. Их бы починить или ленточкой огородить и сразу заживем! Но жизнь устроена не так, жизнь это конкуренция! Меж-групповая конкуренция, внутри-групповая конкуренция, даже внутри-семейная конкуренция. Более того, группы без внутри-групповой конкуренции проиграют конкуренцию с другими группами. Стресс — это норма!
И когда избегающий подход (не нравится начальник — меняем работу) будет приводить к еще большим проблемам (а нету другой работы! 2026 год на дворе!) эти люди упадут в очень глубокий кризис. Будет что-то типа КПТСР.
Минусы будут. Вернее, уже есть.
Ожидания:
Куча новых открытий с помощью ИИ, прогресс ускоряется, ура!
Реальность:
Куча новых статей, прекрасно оформленных, разложенных по полочкам, и с минимумом научного вклада. На первый взгляд они великолепны. Кто будет это все разбирать? Правильно, другая нейронка — люди не успевают! Что из этого получается? Херня получается — бардак и хаос, как с рынком найма сейчас, реально полезные статьи тонут в океане просто_статей, а вычленить их никто не может.
Сколько готовы платить за аутсорс функции калькулятора?
Это выводы бессмысленные.
По сути, LLM провоцирует нарушение понимания системы. Можно сколько угодно повторять правила, но они будут нарушены и LLM-кой и человеком, потому что 9 раз прокатило, значит и на 10-й прокатит!
Пузырь в ИИ. Но кризис глубже.
Есть ожидания, что прибыли не будет, а зп все равно платить.
Это поэтому у них такие великолепные результаты теперь? Одни шедевры в производстве?
…причем $10 млрд. ушло только на прокапывание туннеля от ФРС до IBM, что бы свеженапечатанные доллары быстро подвозить.
Я, например, не считаю человека неповторимым.
Я считаю, что ИИ текущих архитектур не справляются и принципиально ненадежны. Особенно LLM.
Ну наконец-то!
Значит так, хотел бы чтобы вы сделали игру, 3Д-экшон суть такова...
В ваших аргументах, AI можно заменить на «индусских программистов» без потери смысла.
Передергивание на передергивание, даже лень объяснять™.
Один программист посмотрел на выдачу ИИ, долго вникал, фэйспалмнул, и написал все сам с нуля. У него получилось 100% ручного кода.
Другой программист посмотрел на выдачу ИИ, долго вникал, фэйспалмнул, и исправил 10 ошибок в 10 разных местах, по 5 символов каждый. У него получилось 5% ручного кода и 95% агентского.
С точки зрения автора, это принципиально разные ситуации!
О, точно, оно пишет нерабочий код лишь в 20% случаев! То есть, нужно досконально проверить и продумать только 20% кода? Или как это работает?
Если бизнес платит «за фичи», без учета технического долга, то у меня для этого бизнеса плохие новости.
Эффективность 30%—50%! Это же всего лишь в три раза хуже человека!
(Это потом выяснится, что в 50%—70% входит уничтожение товара, суицид робота и сжигание завода).
И она, кстати, подходит абсолютно всем, кроме лично вас!
Ага. Ну вот вы проверили — она так себе, на троечку. Что дальше делать?
Это будет Зеленый ИИ™, я надеюсь?!
«Зеленым» ИИ может считаться только если более 85% энергии на его обучение пришло из полностью «зеленых» источников!
Да. Только, к сожалению, нельзя заранее понять, для каждой отдельной задачи, входит она в эти 44% или нет — то есть, справится с ней ИИ или нет.
Это как правило 20% / 80% про вложенные усилия и ценность результата. Статистически все так, но это только пост-фактум ясно. А заранее не понятно, какие именно 20% усилий дадут эти 80% результата!
ИИ редко проваливается потому, что плохо работает.
Да, он плохо работает…
Но проваливается он не поэтому!
%мем_с_уиллом_смитом%
Бум точно будет! Но пока не понятно в каком смысле…
Проблема, собственно, в том, что это люди не толерантные к стрессу.
Как те, кто вырос в стерильной комнате и теперь боится любой бактерии.
Термин «токсичность» подразумевает, что все проблемы от неправильных, токсичных людей. Их бы починить или ленточкой огородить и сразу заживем! Но жизнь устроена не так, жизнь это конкуренция! Меж-групповая конкуренция, внутри-групповая конкуренция, даже внутри-семейная конкуренция. Более того, группы без внутри-групповой конкуренции проиграют конкуренцию с другими группами. Стресс — это норма!
И когда избегающий подход (не нравится начальник — меняем работу) будет приводить к еще большим проблемам (а нету другой работы! 2026 год на дворе!) эти люди упадут в очень глубокий кризис. Будет что-то типа КПТСР.
Вот на этом невысказанном предположении и держится весь хрупкий механизм нашего ИИ-пузыря!