Как стать автором
Обновить

Комментарии 294

Статья почему-то читается синтезированным голосом иногда с неправильными ударениями. А знаете почему? Потому что это такой же нейро-шит-постинг, как и эти видео в YouTube и ТикТоке, в которых нейронки зачитывают транскрибацию происходящего на видео. Скоро придётся в интернете вешать везде плашки, что статья написана живым человеком, а всё остальное, не имеющее оной плашки, воспринимать сугубо, как выхлоп LLM.

Не волнуйтесь, скоро вы перестанете замечать ИИ генерированный контент в интернете)

Потому что другого не останется?

Да, разницы не будет видно

Если вы так свято верите в прогресс ИИ, то поймите, что он просто сожрет интернет. Статьи и помойки для их размещения прекратят свое существование. Любую статью будет налету генерить условный гугл, как только вы ему дадите тему для поиска.

Эм, не то чтобы свято верю, просто результаты довольно впечатляющие чтобы так и думать. Я не говорил, что мне это нравится.

И да, весьма вероятно он в значительной степени так и сделает (сожрет интернет).
Это ведь зависит не от того, верю или нет, а от того, будет ли работать или нет.

Вы уже вероятно видите тонны генерируемого текста.
Ну, как то интернет и мы адаптируемся.

Если судить по статейкам нулевой информационной полезности, которые заполонили инет, то это довольно сомнительный результат.

Ну, как то интернет и мы адаптируемся.

Да, я перестал это все читать и перехожу сразу к комментам ))

Да, я перестал это все читать и перехожу сразу к комментам ))

А это следующий шаг (не уверен, кстати, что не текущий) ))

 Любую статью будет налету генерить условный гугл, как только вы ему дадите тему для поиска.

Что, кстати, вроде бы соответствует тому, как это в разной фантастике описывалось. Супер-ИИ отвечал на вопросы не выдавая список статей, а прямо на ходу описывал решение проблемы.

А поисковик - он в контексте каких-нибудь библиотек и архивов только присутствовал.

Интернета в том виде, как мы представляем (куча статей и страниц от кого попало, которые можно искать) - предсказано не было.

Супер-ИИ отвечал на вопросы не выдавая список статей, а прямо на ходу описывал решение проблемы.

А еще, порабощенный капиталистами, он будет знать о вас все и убеждать потратить деньги.

Потому что это такой же нейро-шит-постинг

С чего вы взяли, что эта статья (или какая-то ощутимая её часть) написана нейронкой?

Кстати, мы не знаем, писал ли автор сам. Про то, как сделан перевод, конечно, знаем.

исходя из содержания статьи, это было бы, как минимум, последовательно)

Хуже. Это классический маркетинговый развод с "успей или проиграешь". Мы сейчас на подъёме hype cycle. Вот в 2016-м примерно было то же самое с блокчейном.

До этого помню хайп с Big Data: Hadoop, NoSQL и т.д.

Вы что ntf не покупали :)?

Нет. Здравый смысл не дал, я ещё МММ помню (почти осознанно).

Скоро придётся в интернете вешать везде плашки, что статья написана живым человеком

<irony>А может не так и плоха идея пускать в интернет только по паспорту или через Госуслуги</irony>

И как это обеспечит написание статьи живым человеком?

Общая идея: твинков не будет; репутация аккаунта будет ценна.

Хотя, гарантии, конечно, нет никакой :)

Общая идея: твинков не будет; репутация аккаунта будет ценна.

Это у обычных пользователей их не будет, а у кого надо - будут.
В общем - не надо нам интернета по паспорту, лучше не сделает, а хуже - точно.

И как это обеспечит написание статьи живым человеком?

Ну а что же может быть лучше чем ...
Давайте же рассмотрим в этой статье...
Наша коллектив расскажет вам об этом уникальном продукте отобранным специально для вас...

Вообще без разницы кто статью писать будет, подавляющее большинство статей на сайтах откровенный трэшак. Когда копирайтер пишет статьи на поток они у него мало чем отличаются от иишных (в большинстве случаев они натурально хуже).

Я раньше пробовал заказывать на сайт технические статьи, потом плюнул и сам стал делать по мере наличия времени - хоть за дорого хоть за дешего абсолютно всегда был откровенный хлам.
Более того, копирайтеры не вникают в техническую часть [это а) нерентабельно б) долго], а ИИ вникает, пусть и может написать с ошибками (опираясь на хламьё копирайтеров).

А сделать так что бы писал человек да ещё и имеющий квалификацию для написания статьи - имхо это почти нереализуемая идея. Тут нужно будет делать реестр таких человеков и всё такое.

Тут нужно будет делать реестр таких человеков и всё такое.

Ну то есть по сути - "доверенные аккаунты" и поисковик/подписку по ним.

Вот мы и пришли к small web :-D

На персональной публичной страничке на госуслугах карму сольют в минус.

Скоро придётся в интернете вешать везде плашки, что статья написана живым человеком, а всё остальное, не имеющее оной плашки, воспринимать сугубо, как выхлоп LLM.

Да какая разница, если отличить не можешь? (а если можешь - то плашка не нужна) Такое желание неявно подразумевает, что живой человек чем-то лучше, даже когда неотличим(для читателя) от LLM. Что неочевидно уже в ближайшей перспективе.

Разница большая. Отличить по названию не можешь. Приходится тратить несколько минут времени на этот шлак. После нескольких абзацев закрываешь, но время то никто не вернет.

И нет, я хочу тратить свое время на статьи людей и не хочу на автогенеренный шлак.

Разница есть.

Скоро может быть и по качеству не отличишь

Вот бы, вот бы. Главное, чтобы не как в анекдоте про революцию и внучку декабристов...

Разница в том, что отличить можешь. Иногда сразу иногда не сразу (время). Но цена генерации (за счёт демпинга в данный момент), копеечная, поэтому можно залить всех AI slop, и нормальные человеческие статьи в этом просто потеряются. Это как SEO спам, вроде понятно что спам, но на каждый результат надо понять - это то что надо или нет.

Особенно это иллюстративно в картинках. "Стиль" от нейросетки в массе опознаётся просто, этакий новый 'corporate memphis' но выфильтровать это, чтобы найти что-то интересное...

Используйте вайб ридинг!

Уже пишу, в своих скромных джунских постах, что статья написана человеком, и нейронки не допускались даже до правок.

Статья написана маркетингом для заливания в мозг эффективным менеджерам. Никакого отношения к реальной разработке все эти сказки не имеют.

При всём моём патриотизме - российские технологические форумы, по классике, лет на десять отстают от глобальной индустрии. LLM это уже несколько лет как альтернатива поисковикам, Stack Overflow и прочим. Но у нас надо, по всей видимости, на ассемблере по книжкам код писать, что бы плюсики на Хабре получать.

Да, но человек не про это говорит.
То что стаковерфлоу умер говорит уже траффик стаковерфлоу

LLM это уже несколько лет как альтернатива поисковикам, Stack Overflow и прочим

Справедливости ради:

  • ChatGPT вышел в ноябре 2022 года - 2.5 года назад, т.е. все-таки не года. Perplexity вроде с лета 2023 существует.

  • Сами по себе сети не умеют искать по Интернету, а используют сторонние тулзы для поиска (без них галлюцинаций будет слишком много)

Но с основным вашим тезисом я соглашусь. Правда, и мировые форумы в основном забиты булшит-маркетологией в духе "Скоро всем будет править LLM" (это, как понимаете , все-таки не для технарей, технарям нужна конкретика и работающие прототипы, а не лозунги).

---

Проблему я лично вижу в том, что на системном уровне отсутствует мотивация писать хорошие русские статьи про LLM. У меня вот опыт есть... но разбивается о вопрос "Зачем?". Потому что в топ все равно выйдут условные "OpenAI опять...", "Google инвестировал..." и прочие переводы - потому что делать их проще, и просмотры они собирают лучше.

А зачем про LLM статьи писать, если технология простая, как поисковик? Это примерно, как когда гугл появился в конце девяностых - что его обсуждать-то? Работает и работает.

Странно слышать этот от вас - вы написали статью на тему кодинга с ЛЛМ меньше месяца назад )

А вообще просто тупо ничего не работает "просто так" - все-таки лучше анализировать и использовать best practices. Вот для меня и, вроде вас очевидно, что надо хорошо управлять контекстом, а по опыту чтения комментов на Хабре я периодически вижу "Я его попросил [промт КАПСОМ, без контекста], а получил ерунду. Фигня эти ваши LLM!".

Я написал обобщенные простые правила использования LLM, для тех, кто не в теме, т.к., уловил на Хабре интерес. Причём я даже не в курсе был про систему инвайтов, думал что сразу в песочнице высветится, а оно легко на модерацию, и я решил в виде поста выложить. Причём за этот пост меня захейтили очень неслабо. Просто многие даже не понимают связь между качеством контекста и качеством генерации и принципы работы контекстного окна. А это самая база.

Это примерно, как когда гугл появился в конце девяностых - что его обсуждать-то? Работает и работает.

Вот только под капотом у него было очень много интересного. Включая, например, борьбу с накруткой рейтинга страниц и т.д.
Вы просто успели позабыть. (ну или абстрагируетесь от того, как устроена технология)

В конце девяностых ничего этого не было, это уже нулевые.

LLM это уже несколько лет как альтернатива поисковикам, Stack Overflow и прочим.

Подтверждаю. У нас в компании в феврале заставили всех попробовать вайб-кодинг, а в апреле уже попросили им не увлекаться.

LLM это уже несколько лет как альтернатива поисковикам, Stack Overflow и прочим.

Альтернатива она только потому, что качество поисковиков критически упало за последние несколько лет.

Вы, я полагаю, сеньор?

Нет. Просто у статьи очень характерный стиль.

А что там про Нью Васюки, почему не рассказали?

"Попробуешь Нью-Васюки кодинг-агентов – назад уже не захочешь. Они просто растопчут Старую Москву чат-кодинг."

В 20 веке лошадей будет так много, что города утонут в навозе

В 21 веке все продолжат писать на машинном коде, Ассемблере.

Как ни странно - ассемблер не вымер. Ушёл в свои ниши, но не вымер.

традиционный кодинг тоже не вымрет, а уйдёт в свои ниши.

Тут есть нюанс (с). Когда то более 95% программистов программировало на ассемблере (будем считать, что несколько процентов прямо в машинных кодах ваяло). Сейчас на ассемблере пишут дай бог 1% всех программистов. Но в абсолютных цифрах - думаю, что программистов на ассемблере меньше не стало. Просто выросло число других программистов.

Те самые 95% решили свои задачи на ассемблере, сейчас задачи уже другие и решаются немного иначе.. Прогресс не стоит на месте, LLM не заменитель человека.

Ура! Из пяти стадий принятия, хабаровчане прошли стадию отрицания, и перешли в стадию гнева. Стадия торга через 3,2,1...

У меня все последние комментарии от вчерашнего обсуждения LLM красные.

До этого тут были хейтеры, которые под каждым ии постом писали на столько однотипные комменты, как будто их и делали llm образца 2022г. Это такая заказанная кем-то метаирония: хейтить llm посредством llm.

а вы на основании чего такие выводы сделали? у материала, при достаточно большом количестве комментариев, общий рейтинг вот на данный момент - 0. как-то не похоже, что он отражает мнение большинства хабровчан. или это такое удобное обобщение?

В комментарии под любую популярную статью об LLM зайди, тут давеча чел написал резонансную статью, и когда начал спорить в комментариях - ему по сто минусов на коммент насыпали. Тут у людей на глазах их зона комфорта рушиться, "а вы свои статьи пишите про LLM".

Ага, рушится рушится..помнится был призыв покупать NFT. Хайпу было...жуть, а кончилось ничем. Пока чем реально стали LLM это замена поисковику, выдача у нейронок в разы лучше чем и гугла и более адаптивная. Последние года 3 поисковиком пользоваться стало просто невозможно.

В отличие от NFT - LLM приносит огромную реальную пользу уже сейчас. Это как с криптой. От неё полно толку, думаю, не будете спорить, мы на Хабре, а не в пельменной, поэтому - взлетела. Тоже самое с LLM. Прыгайте в поезд, пока не уехал. Я помнится в 2010-ом прознал про биткоин, ещё можно было на ноутбуке спокойно майнить, думаю "не эта шутка выше доллара не взлетит, зачем мне из-за этих копеек напрягаться"...

На больших скоростях разработки армией дорогих агентов цена галлюцинации у оркестратора будет фатальной для бизнеса. Кто будет нести ответсвенность - молодые перспективные джуны?

Ответственность будет как обычно нести продукт оунер, а под ним системные аналитики (соответствие бизнес-требованиям), системные архитекторы, девопс, безопасники и наконец внизу тестировщики. В любом случае их будем меньше, чем синьор-разработчиков сейчас они будут также использовать ИИ-инструменты.

Так в этом то и мой вопрос. Сегодня контроль разработки осуществляется непрерывно, более квалифицированными специалистами. Время реакции на не верно принятое решение не приводит к большим финансовым затратам. Если на 1 сеньора будет возложена задача контроля 100+ агентов то он физически не сможет контролировать процесс, будет вынужден полагаться на агентов (на своем уровне). При этом цена ошибки будет велика. Если 100+ агентов будут работать в неверном направлении хотябы пару часов то цена ошибки непомерно высока. Более того, обнаружение этой ошибки может привести к следующей итерации. А клиент будет требовать выполнения контракта в рамках согласованного бюджета. Как покрывать такие издержки?

Да чего стесняться, Osaka и будет. Это же идеальный бизнес с положительной обратной связью.

Как в "Операции Венера" - три торговых автомата на выходе с заводе. С питательными галетами, настолько сухими, что надо запивать. С шипучкой, от которой такая отрыжка, что надо закурить. И с сигаретами, от которых снова жрать хочется. И всё "добровольно и с песнями".

Ну или как в аутсорсинговых галерах, итерация уже третья что ли...

  1. Сначала Osaka убеждает - прыгайте из окна немедленно! объяснять некогда, кто не успеет выпрыгнуть, тот навсегда опоздал!!! - уволить всех опытных программистов.

  2. Когда/если операция "гони Васю на мороз" сработает, то во-первых сеньоры упадут в цене (массовый выброс предложения на рынок), во вторых они будут обижены на "обычные" места работы. Надолго потеряют к ним доверие и просто так возвращаться не захотят.

  3. Osaka и аналоги этих бездомных сеньоров скупят за полцены, как по слухам Илон Маск скупал космических инженеров, которых для этого сотнями изгнали из НАСА в никуда.

  4. Дальше тот же Osaka продает нейронки-агенты. Но продаёт он их не конторам - а джунам. Перед конторами он бы отвечал за качество работы агентов, но он как раз иллюзий не питает и отвечать не будет. Поэтому продаёт джунам. Ну и вообще - продаёт. Если бы он верил в качество нейронок, то и продавал бы не нейро-агенты, а услуги по написанию кода, с большей маржой. Спойлер: это тоже будет, но потом и внезапно. Первая доза должна быть бесплатной.

  5. Точнее, договор может быть и с конторами, но пробивать оплату и отвечать за качество будут джуны. При любых претензиях от конторы Osaka будет исполнять "у нас молотки правильные, это у ваших слесарей руки кривые". Ну или "Ответственность будет как обычно нести продукт оунер".

  6. По началу рисковать будут те покупатели, кому особо рисковать нечем, с задачами простыми и/или однотипными. Там нейронки в самом деле себя покажут, а их глюки будет легко найти и исправить. На этом этапе Osaka продолжит рекламную компанию" - "вот видите! я не врал! это реально работает!"

  7. И вот наконец - случилась шляпа. Задача стала сложной, а нейронка не поняла постановку и/или загаллюцинировала. В идеале - она сделала почти правильно, но в некоторых edge case идёт скрытая порча данных. И все уже "в проде", отменить нельзя, надо по живому исправлять. При этом на работе - только джуны, которые обучены много и красиво обещать. Примерно как в 90-е братки давали в долг коммерсам с расчётом на "не сможет", а если вдруг у бизнеса получалось, то они сами ему создавали проблемы. Цель долга не в возврате, а чтобы вернуть не смогли. Цель "прогони сеньора и займи его место" в том же, добиться массовых проблем, которые джун решить не сможет, но и признать и отскочить уже слишком поздно будет. Красочно подобное у Иевлева в "Деле молодых" было описано, когда "Администратор системы" умел открывать спрятанные инженерные менюшки, а система грохнулась так, что графика вообще не загружалась. Жгучая смесь "такого не бывает" и "давайте ещё подождём, а что ещё делать-то?"

  8. Дальше у нас "прыжок веры", предлагается "контролировать процесс", то есть запускать тесты. Будет ли их запускать последний неуволенный сеньор ( по Thinkman99 ) или другие нейронки во флотилии (Osaka) - не так важно. Беда в том, что запуск теста не исправляет программу. Предлагается поверить, что "тысяча обезьян за печатными машинками" напишут в том числе и правильную программу, хотя бы один раз. И тогда, отсеяв 99% программ тестами как Шерлок Холмс, мы получим свою прелесть. Если бы оно так всегда было, то "в продаже" не было бы программ с ошибками. Увы, в реале будет ситуация, когда программа уже давно у покупателей работает, и вот один из них наконец заметил порчу данных, и надо "по живому" исправлять, отказаться от программы вообще и купить другую уже слишком поздно.

  9. При этом глупо думать, что этакая программа написана как-то "по-человечески", с понятной структурой. Идеальный рынок по Osaka - джуны, которые торопливо вбивают промпты, и им плевать что там получается. Примерно как сегодня редкие программисты на JS или C# смотрят "ассемблерный выхлоп". Даже те, кто умеют - им некогда и не интересно. Но среди них хотя бы есть те, кто при случае сможет это сделать, если жаренный петух клюнет, ошибка в компиляторе или заголовке чужих библиотек. Однако в идеальном мире "старикам" выписали пенделей и остались только джуны. А джуны контролировать "стиль" программы не будут, во-первых не смогут - у них нет своего мнения про "как надо", во вторых им Osaka уже красочно объяснил, что их сила в том, чтобы быстро закрывать таски. Именно в этом они будут лучше "старичья". И всё, что будет тормозить процесс "бери больше, кидай дальше" - зло. Тесты в тикете прошло - закрывай задачу, а исходник даже не смотри, сомнения приводят к неверию, а неверие к ереси.

  10. Соответственно, когда наконец получается, что "программа не работает", при этом её уже всем продали, а её исходники никто не читал и не собирался, даже чисто эстетически без понимания не читали - это непродуктивная трата времени, надо больше тасков закрыть, то контора "влетает" и пора её "ставить на счётчик". И в итоге либо сам джун "продаст квартиру", либо его работодатель раскроет кубышку, и пойдёт.... куда? "Сеньоров" он уже с насмешками выгнал, их нет, да и они обиделись.

  11. Но... когда этих душных и нудных всех выгнали - их за полцены скупил Osaka, и теперь он же будет их обратно сдавать с почасовой оплатой и маржой. При этом он будет "раздувать" сложность задачи, ему это выгодно. Да она и в самом деле будет сложной, сможет ли безнадзорная нейронка удержаться хотя бы на уровне индусского кода? Или вообще изобретёт нечто такое, что формально работоспособно, но биологическими мозгами вообще не осознать? Образ такого кода по Шумилову - сплошные индексные таблицы. После каждого вычисления, по результату идёт goto Table[N+1][i], а business-domain функций и слоёв вообще не видно. Там, конечно, и задача была художественная показать "нечеловеческую логику", но почему бы нейросеткам что-то подобное не придумать, если белковые не будут их за руки хватать при попытках сделать по своему?

  12. У "конторы" кризис, исправить нужно вчера, а исправлять некому, и не факт что вообще возможно. Если повезёт, они смогут написать уточнённые тесты, которые покажут уж известное: существует ошибка. Но поскольку тесты - обратная стороны ТЗ, то возможно и того не смогут. А программу не факт что можно будет вообще "исправить", вероятнее что придётся переписывать кусками. А торговаться надо было год назад, но тогда про ошибку никто не знал, а сейчас уже надо выпрашивать "быстро и хорошо".

Итого - кругом профит.

  • сеньоров собрал за полцены

  • сдал в аренду обратно, но дорого и без гарантий

  • виноваты в этом всём будут джуны, потому что их не жалко, а они крайние

По моему отличный план!

Тестировщики? Тестировщики-люди, вы имеете ввиду? Один джун с флотилией агентов накодит за день на два десятка тестировщиков, где их взять, если количество кода увеличится?

Тестировщики-люди будут использовать свои свои флотилии ИИ-агентов, конечно. Получится эпичный баттл в стиле EVE Online )

Это когда всё лагает, и нихрена непонятно, что происходит?

Чтобы понять, нужно использовать флотилию ИИ-агентов-аналитиков.

Это когда черный экран и все :).

А потом ты уже на станции.

Когда что-то видно - это отличный вариант. Вроде бы потом до него допилили путем удлинения времени. Но там вылезла другая история, всё превратилось в шахматы по переписке, т.е. можно было десятки минут наблюдать как что-то оооооочень медленно происходит.

ну при чём же тут ева? эх, джуны-джуны. Баттлы будут в UE5-римейках классики: Pascal Robots и Core Wars

  1. Программисты и математики не нужны, всех заменит ллм.

  2. Нужны только математики, чтобы поддерживать ллм, а программисты не нужны.

  3. Нужны только математики и программисты сеньоры.

  4. Не нужны только программисты джуны.

  5. Технического долга не существует.

  6. Легаси код мы удалим.

Вы находитесь здесь.

  1. Нужны все математики и программисты, но они обязаны разбираться в ллм.

  2. Нужны все программисты и математики.

  3. Используем ллм только для тех задач, для которых оно предназначено.

  4. Давайте не будем увольнять злобных маркетологов, которые хотели всех уволить.

Программисты и математики не нужны, всех заменит ллм.

Нет, просто программистов и математиков, которые не умеют пользоваться LLM не будут брать на работу, как сейчас не берут тех, кто не умеет пользоваться гуглом.

Вы описали пункт 7:
7. Нужны все математики и программисты, но они обязаны разбираться в ллм.

В данный момент использование ИИ разве что может поднять стоимость разработки, мне кажется. Ну не настолько хорошо оно пишет код. Норм, когда надо какой-нибудь скрипт для себя написать, а самому это делать лень. И то, даже такую мелочь, приходится руками допиливать. Смутно верится в аргументы из статьи.

Очень размытое обобщение. Зависит кардинальнейшим образом от стека, LLM, методов работы с LLM и прочее. При забитом контекстном окне - качество генерации снижается в геометрической прогрессии, а правильно оперировать контекстным окном пока ещё мало кто умеет.

Чего им "оперировать"? Просто поглядывай на графики Needle In a Haystack для используемой тобой модели и соизмеряй риски потери контекста в соответствии с ними.

Опять сэкономил время на чтение статьи почитав несколько комментов сначала, спасибо комментаторам.

Надоела эта тема с ЛЛМ если честно из каждого утюга здесь по несколько раз в день уже :(

Ну можно обсуждать вместо этого очередное производство пирожков, скоро до ста рецептов шаурмы для шаурмичной дойдём. Если честно, смешно наблюдать, вся глобальная индустрия семимильными шагами осваивает LLM, как инструмент, а на главном сайте российских айтишников минусят за упоминание LLM, и обсуждают производства пирожков. Не, про пирожки тоже интересно, не спорю, но лучше уж статьи про LLM читать (ну как бы если мы на айтишном сайте).

Интересно почитать про научные работы на тему ллм, а очередную истерию о том, что вот-вот программисты будут не нужны, идущую с изобретения Фортрана, нет. В статье нет анализа, есть попытка что-то продать

Человеку просто хочется пообщаться и обсудить горячую темы, что вы сразу так.

Нет, именно что не хочется каждый день переливать из пустого в порожнее. Я не ЛЛМ скептик - часть работы на части стеков она уже может делать на мой взгляд (изолированные задачи, утилиты), и оно развивается, факт, но каждый день одно и то же переливать и не по разу.. зачем?

Потому что или это или шаурмячные. Я выбираю статьи про LLM. Но авторам постов про шаурмячные тоже спасибо, оффтоп, но интересный.

А и то и то надоедает, если однотипное, в последние статьи от Рюмина тоже с комментариев часто захожу уже, вот вчерашнюю про витаминки и не открыл даже саму статью.

А обсуждать особо больше и ничего. Меня, вот, например, волнует пофиксили-ли баги в RethinkDB (мне она очень нравится, потому что можно на JS, то есть ноде писать, то есть JS фронтенд-бэкенд-СУБД, красота), но если я это запощу, я не уверен, что даже два-три человека ответят.

Восторг это все идет у джунов, которые пишут простой код и не умеют строить архитектуру. А сеньоры это видят и видят какой код получается. А чтобы получился нужный код заколебешся с ним, как говориться быстрее сам напишешь. Кстати, как и обстоит с джунами. Если джун тупой, то быстрее самому сесть и написать.

Есть нюанс. Можно на незнакомом языке взять и написать за неделю качественное приложение. Раньше для этого приходилось синтаксис учить, а сейчас просто логику через LLM прокидываешь, вопрос скиллов. То есть вопрос изучения языка отпал, вопрос перехода на другой язык отпал, если понимаешь среду, окружение и архитектуру - то можешь любым инструментов пользоваться. Например, допустим, вы фронтенд, и хотите мобильное приложение написать, раньше человек год пыхтел, страдал, учил яву, свифт, или использовал тормознутую мультиплатформу. Сейчас ты садишься и за неделю получаешь хороший и качественный код на нативном языке.

Через LLM проще научиться новому ЯП - это верно. И это большая помощь.
Но можно выстрелить себе в ногу. Если ты не знаешь ЯП, то не можешь править то, что тебе выдает.

Грубо говоря - обучение - да, реальный проект - нет.

Просто напишите любой базовый функционал на незнакомом языке (чем более незнакомый тем лучше), а потом задайте LLM задачу максимально всё прокомментировать и разобрать все принципы работы. Это примерно, как прочесть хорошую книгу по эффективности обучения, даже лучше, т.к., перед тобой рабочий код. Только книгу читать неделю, а это делается за полчаса. Повторить х10-х100, и я готов поспорить, что можно любой язык из топ-20 языков освоить за две недели на уровне джуна, за несколько месяцев на уровне мидла и так далее. Проверьте сами как это работает, что тут тонны комментариев писать.

Так это и без llm можно в те же сроки. В чём проблема то синтаксис и основные отличия освоить ?

Вы освоите Java за две недели по книгам и гуглу? Без LLM? Без посторонней помощи? Ну-ну.

На уровне джуна за две недели по книгам легко. С Гуглом тем более. С нуля так вкатываться не получится. Но старший разработчик имхо вполне в состоянии освоить новый язык за одну две недели на джуновом уровне, если не совсем экзотика какая-нибудь по сравнению с текущим стеком.

То есть, вы не подглядывая в LLM, только по книгам и гуглу, за две недели напишите приложение на java, если вы до этого только на, ну пусть будет, на C++ писали? Я бы оспорил это. Или надо не спать по 20 часов и гуглить с какой-то невероятной скоростью.

Я с php ушла на go за неделю. Именно через неделю я начала собесится, через 2 недели оффер.

Изучала в будни после работы по 2 часа и в выходной по 4-5 часов.

Изучение по ютубу по 2м каналам.

Define "приложение". Условный HelloWorld - запросто. Ну, в моём случае не на Java (я с ней уже профессионально работаю, как-никак), а, скажем, на условном Swift или Zig.

Ну, скажем, простенькую CMS.

Без LLM? Без посторонней помощи?

Пардоньте, но взоржал. В голове прямо возник тот самый абстрактный джун LLM-суперзвезда из статьи.

Я знаю какой-нибудь ЯП аналогичной "языковой группы", например, Python. Что необычного может быть в освоении Java по книгам и гуглу за 2-3 недели полной занятности?

Да, возможно поломает от навязанного ООП, которое там вроде как везде, а не только тогда, когда сам захотел. И от паттернов поломает, если не умел в них, а там это идиоматично - но это уже по желанию.

Тут опять же - что значит "освоить"? Production ready корпоративную шизу килостроками в опердень начать выдавать на-гора - это да, не факт.

За две недели полноценное приложение на Java, используя только книги и гугл, при том, что изначально человек знал только Python? Я не говорю, что это невозможно, но мне кажется (не кажется), что вы немного себя переоцениваете. Два месяца - как то ближе к реальности. При обычном ритме, в свободное время, скорее полгода-год, а то и больше.

Достаточно 2х недель, если по ютубу. Перейти с ООП ЯП на примерно такой же - не сложно.

Java и Python, для начала, очень сильно синтаксисом отличаются.

Двоеточие вместо фигурных скобок, elif вместо else if и and/or вместо &&/|| это не сильно. А, ещё in вместо двоеточия в foreach цикле. Но даже с ним не сильно

Там ещё полно всего, и бесскобочный синтаксис плюсом. На идентичных задачах, может быть, если работает в команде и вам всё разжуют. При самостоятельном изучении, на разных задачах - в геометрической прогрессии увеличивается время изучения.

Может. Как человек начинающий с Паскаля, потом С++, то для меня не было проблем с синтаксисом на Java.

А в чём сложность, простите? Базовые вещи даже на незнакомом языке довольно легко пишутся. Особенно, в случае java, которая создавалась как простой язык. Не факт что будет идиоматично или производительно, но работать будет, да.

Вопрос схожести языков. Если переходишь с C++ на Java или Rust - может быть. С JS или на JS? Я бы посмотрел, как плюсер прыгает на джиэс, посмотрел бы, посмеялся, вместе бы поплакали бы.

С JS или на JS?

Java в достаточной мере похожа на js, чтобы не возникало трудностей с переходами js -> java и java -> js

Похожа только синтаксисом. Я бы денег заплатил, что бы посмотреть, как джавист будет чистый джиэс без тайпскрипта осваивать. Java после JS вообще элементарно легкой кажется, вроде всё-тоже самое, но логично и понятно. JS, вообще, очень сильно отличается от всех C-подобных языков, архитектура принципиально разная, с Java они только синтаксис разделяют. Если же вы о ноде, то нода это не JS. Нода это классический язык использующий синтаксис JS. Ноду освоить - ничего сложного, после C-подобных языков, да и на ноде после JS писать - это как развлечение. JS оперирует DOM-деревом, имеет в себе структуру прототипирования, вокруг которой половина языка вращается и прочее. Динамическая типизация - вообще, таблица умножения, самое простое. Систему прототипирования до конца даже сами разработчики стандарта ECMAScript не знают, может пять человек только примерно. Плюс ещё JS это неразрывная связь c HTML5/CSS3 (да, мы в 2025, уже давно переход произошёл), то есть стандартом W3, а это уже океан возможностей, например, Canvas и SVG, тоже часть стандарта, не стоит забывать. Атрибутивные селекторы CSS, CSS-функции, пользовательские атрибуты HTML, стандарт W3 расширяется быстрее, чем успеваешь его учить. Это всё тоже часть JS, ты с этим хочешь-не хочешь будешь оперировать. После C-образных языков это будет как оказаться посреди африканской деревни без денег и вещей и выживай как хочешь.

Я бы денег заплатил, что бы посмотреть, как джавист будет чистый джиэс без тайпскрипта осваивать.

Вы так и не сказали в чём существенные отличия, которые вылезут в работе и освоение которых займёт много времени.

Если же вы о ноде, то нода это не JS.

Плюс ещё JS это неразрывная связь c HTML5/CSS3 (да, мы в 2025, уже давно переход произошёл), то есть стандартом W3

Это всё тоже часть JS, ты с этим хочешь-не хочешь будешь оперировать.

А мужики-то не знают:

JavaScript (or "JS") is a programming language used most often for dynamic client-side scripts on webpages, but it is also often used on the server-side, using a runtime such as Node.js, Deno, and Bun.

Ну и? Для красного словца для несведущих так написано. В ноде нету 98% функционала JS. Прототипы это вообще основной момент JS, про остальное даже говорить нет смысла. Отличия? Отличий масса, система прототипирования, окружение, архитектура, JS и нода вообще ничего общего не имеют кроме синтаксиса, по большому счёту. Нода это обычный серверный язык, выполненный в форме JS. От JS только синтаксис, функции, конструкции и методы, всё остальное - принципиально разное.

В ноде нету 98% функционала JS.

Это какого?

Прототипы это вообще основной момент JS, про остальное даже говорить нет смысла.

В ноде нет прототипов?

Отличия?

Вопрос про js и java был, не про js и ноду

Отличий масса, система прототипирования, окружение, архитектура, JS и нода вообще ничего общего не имеют кроме синтаксиса, по большому счёту.

Всё верно, кроме синтаксиса и небольшого списочка совпадений именуемого ECMAScript Language Specification у js и node.js общего ничего нет.

В ноде остался от системы прототипирования только небольшой бэкендерский функционал. Система прототипирования JS - это доступ к объектам DOM, объекту window, событийная модель, т.е., абсолютно большая часть системы прототипирования. Стандарт JavaScript больше стандарта ECMAScript Language Specification в несколько десятков раз, мы обсуждали JavaScript, а не ECMAScript Language Specification, ECMAScript Language Specification их действительно роднит, только на этом сходства и заканчиваются.

Система прототипирования JS - это доступ к объектам DOM, объекту window, событийная модель, а это большая часть системы прототипирования.

Не знаю про какую систему прототипирования говорите вы, но та, которую знаю я с DOM-ом никак не связана и описана в стандарте ECMAscript

Стандарт JavaScript больше стандарта ECMAScript Language Specification в несколько десятков раз

Приведите хотя бы один достаточно авторитетный источник (например, википедию, w3school, mdn или сайт node.js) подтверждающий ваши слова.

Я вам ещё раз говорю, уважаемый, ECMAScript - это описание синтаксиса JavaScript. А Сам JS - это ECMAScript + внешние API реализации ECMAScript, то есть сам стандарт ECMAScript занимает около 900 страниц текста, а стандарт JavaScript занимает около пятидесяти тысяч страниц текста. Ознакомиться можете на W3.org и на прочих репозиториях.

А вот что говорит в своей книге JavaScript: The First 20 Years один из авторов JavaScript, Брендан Эйх:

The word "JavaScript" was avoided when the standard specification was created for the language; instead, that specification uses the name "ECMAScript". The names "JavaScript" and "ECMAScript" are essentially different names for the same thing. In this paper when we use the term "ECMAScript" we are specifically talking about the language as defined by the standard.

However, the design, evolution, and standardization of the DOM and other browser platform APIs constitute its own significant story deserving its own history. The current paper mentions browser related issues only when they are relevant to the overall design of JavaScript.

Ну так было в 1995-ом, кто спорит. Уже тридцать лет прошло. JavaScript уже давно превратился в фронтенд комбайн, одна спецификация Canvas [https://html.spec.whatwg.org/multipage/canvas.html] тянет на отдельный язык, чем по сути и является, так же как и SVG. А после внедрения HTML5/CSS3 - стандарт в геометрической прогрессии увеличился. Да и Mozilla уже давно не локомотив JS, сейчас основа это WHATWG. Если взять все стандартизированные API JS, то это объём более чем в пятьдесят раз превосходящий ECMAscript. Мы ещё даже о webGL не начали разговор, а это целый трёхмерный движок для которого так же есть свои API. Просто для понимания: HTML5 не является частью JS (номинально), но для всех методов появившихся в HTML5 в JS есть свои API, то есть абсолютно всё, что входит в стандарт W3 имеет свои API в составе JS. Набор этих API огромен, ECMAscript лишь является синтаксисом для работы с этими API. API для работы с webGL насчитывает в себе более ста методов и несколько сотен свойств и констант. Это только один маленький кусочек современного JS. Вы скажете: "это уход в сторону и никому не нужно" - хех, webGL уже применяется повсеместно на фронтенде, вы просто этого не замечаете, наши корпорации все уже давно используют webGL на всех своих платформах.

Ну так было в 1995-ом

Вообще-то, книга вышла в 2020-м. И авторы чётко разделяют ядро языка - ECMAScript (он же JavaScript) и библиотеки окружения - BOM, DOM, fs и т.п.
Библиотеки могут присутствовать в зависимости от окружения, в котором работает программа, но при этом не являются частью языка - это внешние по отношению к языку модули.
Вы же не станете утверждать, что Qt является частью C++, хотя масса программ на C++ используют Qt.

Не факт что будет идиоматично или производительно, но работать будет, да.

У вас разные понимания 'освоить'

У одной стороны - определение 'чтобы результат работал'.

У дрогой - явно чтобы было вот это самое идиоматично и 'писать так, как в этой экосистеме принято'. Чтобы потом ни ты не спотыкался на чужом коде и разной документации, ни другие на твоем коде.

Вторая сторона приводит в пример код написанный ллмками. Это, из моего опыта, даже на популярных языках, почти всегда код уровня "чтобы работал", а не "идиоматично, как в экосистеме принято"

Вторая сторона приводит в примеры код написанный ллмками.

Я, возможно, запутался в отступах, но эта ветка - не столько про LLM-ки, сколько про обучение языку "за две недели".

Немного выше было:

Есть нюанс. Можно на незнакомом языке взять и написать за неделю качественное приложение. Раньше для этого приходилось синтаксис учить, а сейчас просто логику через LLM прокидываешь, вопрос скиллов. То есть вопрос изучения языка отпал, вопрос перехода на другой язык отпал, если понимаешь среду, окружение и архитектуру - то можешь любым инструментов пользоваться.

Есть ещё один нюанс: вот такой код

uint i;
...
if (i.ToString().Length == 1)
{
  ...
}

полностью корректен, и пройдёт все тесты. И вайб-кодер никогда не обнаружит, в чём проблема с этим кодом. И ему придется смириться с тем, что производительность его вайб-кода примерно в тысячу раз ниже, чем должна быть.

И это Гигачат, т.е., по мнению хабровчан "ущербная и никчемная" модель.

Вы же понимаете, что я специально выбрал наиболее яркий и понятный пример, который многократно попадался всем LLM-кам в обучающих данных, с подробным разбором, что же там не так?

Ради интереса поскармливал этому гигачату примеры отсюда:
https://neolurk.org/wiki/Индусский_код

примерно на половине он выдал неправильные толкования.

Давайте другой пример.

Вот прямо из той же статьи:

RANDOM = (rand() + rand() + rand()) / 3;

Что по мнению ИИ он делает, и зачем?

Hidden text

Что конкретно в этом ответе не так?

Я ошибся с изначальным комментом. С объяснением псевдослучайности/ нормального распределения всё ок. Небольшой недостаток ответа - не указано, что результат является целым числом, и не средним арифметическим, а результатом от деления нацело суммы 3 интов на 3. Например для "случайных" чисел 0, 0, 1 выражение вернёт 0 а не 1/3.

Небольшой недостаток ответа - не указано, что результат является целым числом

А в ответе же есть, что переменная может быть int или float в зависимости от контекста. Или такой код создаёт строго int?

Выражение (rand() + rand() + rand()) / 3 всегда целочисленное (в C). Переменная RANDOM не указано какого типа, возможно что и float/double, в этом плане в ответе LLM нет ошибки. В случае RANDOM типа float/double произойдёт деление нацело (rand() + rand() + rand()) / 3 (не точное деление на 3 с плавающей точкой), результат будет преобразован во float/double и полученный float/double будет использован для инициализации RANDOM.

Что конкретно в этом ответе не так?

На языке C имеем UB в связи с переполнением int.

Наблюдать можно здесь.
Average1 считается неверно для всех не-MSVC компиляторов.

Потому что библиотека использует для случайного числа весь доступный диапазон положительных значений типа int.

На языке C имеем UB в связи с переполнением int.

Вопрос, который был задан: "Что по мнению ИИ он делает, и зачем?". UB там действительно есть (при некоторых предположениях на функцию rand), но вопрос ведь не об этом

Вопрос, который был задан: "Что по мнению ИИ он делает, и зачем?".

И правильный ответ — делает что угодно, ибо — UB.
А зачем — можно только гадать.

И правильный ответ — делает что угодно, ибо — UB.

Это уже казуистика пошла, но если так хотите: вы не показали, что в этом коде возникает переполнение инта. Во-первых стандарт не гарантирует случайность функции rand, во-вторых автор мог заранее проверить, что при конкретном сиде не возникает переполнение

Более того, в стандарте сказано, что rand выдаёт значения от 0 до RAND_MAX. С чего вы взяли, что на платформе автора RAND_MAX не больше чем в три раза меньше INT_MAX?

Более того, в стандарте сказано, что rand выдаёт значения от 0 до RAND_MAX. С чего вы взяли, что на платформе автора RAND_MAX не больше чем в три раза меньше INT_MAX?

Опять же, я — об общем случае, а не обо всех случаях.

Это уже казуистика пошла, но если так хотите: вы не показали, что в этом коде возникает переполнение инта.

Я не показал, что переполнение int'а возникает для любых случаев, зато показал, что возникает для одного конкретного.

Очевидно, что этот конкретный случай — не единственный, есть ещё и другие случаи, для которых возникает переполнение.

Во-первых стандарт не гарантирует случайность функции rand

Опять же, вы опровергаете не то, о чём я говорил.
Я не говорил, что проблема наличествует для всех случаев.

во-вторых автор мог заранее проверить, что при конкретном сиде не возникает переполнение

Ну, и что, что в каких-то конкретных случаях проблемы нет?

В общем-то случае проблема имеется.

Более того, некоторые LLM-ки это "видят" и даже пытаются "думать" в правильном направлении, хотя и с ошибками.

В частности по второй ссылке, которую привёл @izuck3n можно по строке "Integer overflow risk" обнаружить следующее:

Summing three rand() calls can overflow the range of int on platforms where RAND_MAX is near INT_MAX. Unsigned would wrap, signed is undefined behavior. A safer approach if you really want to combine calls is to do something like

unsigned long sum = (unsigned)rand() + (unsigned)rand() + (unsigned)rand();
RANDOM = sum / 3;

Предложение от ChatGPT — неверное, но "ход мысли", в целом, верный.

Так что проблема не только имеется, но она ещё и не остаётся незамеченной некоторыми моделями.

И проблема будет проявляться в очень существенном количестве случаев, навскидку — в половине случаев, поэтому "не заметить" её будет нельзя.

Иногда проще получить ответ brute-force'ом, что я и сделал.

Можно не дёргать каждый раз srand, а выполнить его один раз вначале или вообще не выполнять ни разу, — результат получается одинаковый.

Как видно, UB имеется в 83% случаев.
Игнорировать такой процент случаев — невозможно.

Окей, ради интереса - задача со звёздочкой:

    std::random_device rd;
    std::mt19937 gen(rd());
    double lambda = 0.5;
    std::exponential_distribution<double> dist(lambda);
    double randomValue = dist(gen) + dist(gen);

Те чат-боты, которые я проверил - понимают, что суммируются два экспоненциально распределённых случайных числа. Но в вопросе "зачем так делают" - спотыкаются. А так делают для моделирования процессов работы магазина, например. Или телефонной сети.

Hidden text

Неплохо, это что за LLM?

gpt-4o

Тут проблема будет уже в том, что надо предмет понимать. Как всегда, любой инструмент сокращает время на работу, а не на его изучение

Покороче:
https://chatgpt.com/share/6819dcf0-55e8-800f-9c61-543553801023

Подлиннее:
https://chatgpt.com/share/6819d8f3-23dc-800f-a269-3401a82dacdd

На правильность полностью проверять лень, но плюс-минус верно и на подвохи указывает... Если правильно спросить... Потому что уже знаешь чего ждешь...

Если правильно спросить...

В промпт-инжиниринге зарплаты давно уже на уровне разработчиков.

Есть нюанс. Можно на незнакомом языке взять и написать за неделю качественное приложение.

Беда, беда, как это будет потом работать и как же будет следить за тем, что оно написало, если ты не знаешь как оно должно быть.

еда, беда, как это будет потом работать и как же будет следить за тем, что оно написало

Вот да. В этих обсуждениях (да и индустрии в целом) все слишком сосредоточились на написании нового. А про эксплуатацию и обслуживание старого - ну очень мало.

Этим ИИ можно как-нибудь скормить ошибку "Вот тут у нас упало с ошибкой 'недопустимое значение' (стектрейс приложен). Найди, где мы (репа на 10млн строк там) это неправильное значение записали или могли записать. И при каких условиях такое получается?"

... А потом выяснить, что это не мы ошиблись, а смежник накосячил и прислал некорректное сообщение.

А думаете новое проще писать? Его же еще к существующему надо прикручивать. Смешно смотреть на эти примерчики, где пишут логику для третьеклашек с ИИ. Я это и без ИИ с бодуна напишу открыв один глаз.

Тут вопрос в размере контекстного окна, к сожелению то с чем работаю ежедневно не лезет в те инструменты, что мне можно использовать.

И от ИИ сильно больше вреда, чем пользы (

Я максимум кормил 200 кб доков + 100 кб модулей приложухи с запросом типа "проанализируй документацию, найди неправильно используемые / deprecated поля и методы в коде, составь список TOP 10, начиная с наиболее критичных проблем". На большее лично у меня RAM/VRAM не хватает. Ну, и у меня код предобрабатывается питоновским скриптом перед загрузкой в LLM: проставляются номера строк, немного изменяется форматирование, чтобы снизить количество токенов.

"проанализируй документацию, найди неправильно используемые / deprecated поля и методы в коде, составь список TOP 10, начиная с наиболее критичных проблем"

В такое я поверить могу, особенно если кормить не контекстом, а вот буквально локальную сеть дообучать на всем, что к проекту относится.. Документации, исходных кодах, переписке по поводу. (Кто-нибудь, кстати, рекламирует такой подход?)

А вот поиск "почему у нас работает не так, как мы думаем как оно работать должно" (что не равно "объясни ошибку") - вроде бы, еще ни одного примера не видел.

Дообучать я тоже пробовал, но, к сожалению, если учить на коротком окне, то и консистентно оно получается только на коротком окне, затем всякие чудеса вылезают. Так что применимость такого результата сильно хуже, чем предобученные софтверными гигантами модели. А на длинном окне обучать локально мне дороговато. Но да, забавно, когда учишь на собственном коде, и оно перенимает стиль кода и комментариев.

У меня даже есть специально дообученная LLM, которая умеет более компактно представлять логику и интерфейсы внутри файлов, чтобы побольше нашего кода запихнуть в локальную модель с ограниченной длиной контекста :D

С объяснением ошибок тоже ограниченно применимо: иногда она сразу может сказать, где что пошло не так, особенно полезно при работе в незнакомом стэке. Но в случае, если мы применяем LLM для "вайб-кодинга", где ошибку выдаёт код, полученный от LLM, обилие ошибок означает плохо составленное ТЗ. Хорошее ТЗ, говорящее LLM, какие использовать алгоритмы и модули, как управлять сложностью, к каким парадигмам и шаблонам проектирования обращаться, приводят к малому количеству глупых ошибок.

Можно считать, что я использую LLM просто для того, чтобы меньше набивать пальчиками, чтобы руки не болели после работы. Либо чтобы она что-то долго и муторно искала. У меня нет задачи, чтобы она много думала и принимала важные архитектурные решения.

Так всё-таки стоит учиться строить архитектуру, а не писать код? По поводу "быстрее сам напишешь", это актуально для синьора, речь же о том что приложения могут писать как минимум джуны, как максимум вообще не разработчики. Необходимость навыков и понимания сохранится, но это другие навыки.

Код то напишется, но вот потом его кто будет разгребать? Код должен быть гибким и доступным для рефракторинга.

LLM стандартно пишут столько комментариев в коде, что бы любой джун разобрался. Не хватает только общего пояснения выбора инструментов и архитектуры, оно пишется в диалоге, но в код не попадает. Вероятно для рефакторинга придётся к коду прилагать исходный диалог, если конечно он был не в режиме автопринятия всего.

Без обид, коллега, но у вас в профиле указано, что вы "Интернет-маркетолог".

ИМХО: просто архитектура так не работает. Вообще пока LLM хорошо делают локальные задачи, небольшие таски, скрипты. Архитектуру они делают близкой к ужасной (ну, т.е. на уровне человека, который большие системы не делал). Говорю как сеньор девелопер и архитектор со стажем около 20 лет.

Почему быть интернет-маркетологом должно быть обидно? )

На звание системного архитектора не претендую, разработчиком не являюсь, к мнению прислушиваюсь, спасибо. Вижу что на больших проектах LLM работают хуже чем на маленьких.

Я так, обозначить границы компетенций. Если вас не обижает - это прекрасно :)

Нет.

У меня тут друг заказал за деньги у кого-то простой скетч на сорок строк. И очевидно его написали с помощью какой-то ллм. Он был весь обмазан комментариями. Собственно меня попросили подшаманить (при этом я любительски под дуины пишу).

Минут через 10 я выкинул все комменты. Стало лучше. Гораздо.

Вы думаете мне надо еще раз словами написать "тут мы объявляем переменную а"? Зачем мне эта информация. Мне нужно написать сколько времени вызывает вызов функции б - это да, было бы полезно. Можно как-то битовые операции развернуть, итд итп. А перевод листинга на русский - это ненужный буллшит.

Две недели он этот код крутил и вертел. Но заработал он только после того, как я за пару часов разобрался что тут делается, половину переписал, вторую выкинул.

Написать с нуля заняло бы час...

Ну так если бы ваш друг мог с нуля написать - он бы сам написал. Вот, я так понял из ваших комментариев, что вы бэкенд. То есть у вас есть понимаю плюс-минус любой архитектуры, и отсутствие практических знаний по (ну скажем) фронтенду или мобилкам. То есть без LLM вы можете только бэкенд самостоятельно писать. Сейчас ты просто прокидываешь логику через LLM, достаточно понимания архитектуры, и получаешь на выходе, за неделю, приложение на нативе написанное, это вместо того, что бы год-два натив учить. То есть с появлением LLM любой разработчик превращается в кросс-платформенного. Вопрос "чистоты кода", это уже вопрос скиллов. Если ты на одном языке умеешь чистый код писать, то и на другом осилишь без вопросов, все языки суть одно. Вы скажете это не буст? По-моему это буст х10 любому разработчику.

Я не знаю кто такой по-вашему бэкэнд, я software engineer.

Вы какую-то непонятную дичь пишите. Я и так могу писать на десятке языков под десяток фреймворков. Мне для этого костыли не нужны. Особенно кривые костыли.

Я хз кому требуется что-то годами учить. Учить вообще ничего не надо, надо понимать. Это может какие-то имбецилы... Нормальному инженеру часто достаточно несколько недель, в простых случаях несколько минут, в сложных может и месяц, но не уверен, не припомню чтобы кому-то из коллег нужны были месяцы.

К примеру, обзорный курс по особенностям qt от самих авторов qt - это четыре блока по 8 часов каждый. Этого вполне достаточно, чтобы писать понятный всем код.

Это если речь о С-подобных языках и схожих задачах. А так, всё абсолютно противоположно вашим словам.

А баба яга - против !

:).

ЗЫ. Думается вы не сможете найти язык на котором я чего-нибудь когда-нибудь не делал... Брайнфак только не надо вспоминать :).

Что-нибудь вроде асма за неделю не изучишь, там сначала нужно прилично понимать как работает процессор.

Forth? Erlang? Prolog? Ada?

С этим никто не и спорит. LLM это никогда не было про рефакторинг. Это про скорость генерации MVP. Но помочь в рефакторинге LLM тоже может очень сильно.

Статья по стилю напоминает комментирование гоночных заездов.

Со старта в лидеры выбивается чат-кодинг. Он сегодня в хорошей форме и имеет все шансы на победу. После первого поворота лидерство у него отбирает vibe-кодинг, какая близкая борьба, а ведь это только начало гонки. На длинной прямой в спину лидерам дышит агентный кодинг.

Вы только посмотрите, как кластеры агентов догоняют группу лидеров и уверенно их обходят. Какая гонка. Давно мы не видели такой упорной борьбы. Отстающие варианты кодинга тоже не хотят выбывать из гонки, поэтому призывает на помощь AI менеджеров. Один AI менеджер может объединить силы нескольких отстающих вариантов кодинга и увеличить их шансы на получение призового места на финише. Захватывающее зрелище. Никуда не переключайтесь и мы скоро вернёмся после короткой рекламной паузы.

Волна после кластеров, назовем ее "флотилии" агентов, позволит разрабам гонять 100+ агентов одновременно… с помощью других агентов. Супервайзеры-агенты будут рулить группами кодинг-агентов, подключая человека, только если совсем швах.

Примерно так сейчас и устроены аутсорсинговые галеры по разработке софта. Видимо, придётся всех кожаных мешков заменить на агентов, а всю прибыль будет забирать себе хозяин галеры, т.к. других сотрудников там просто не будет.

а всю прибыль будет забирать себе хозяин галеры, т.к. других сотрудников там просто не будет.

А прибыли тоже не будет, потому что каждый сможет зайти в галерный бизнес, и будет жуткий демпинг.

В плюсе будут те, кто зашёл раньше и на момент повышения конкуренции уже имеет много инсталлов и органического трафика. В крайнем случаем будем будут зарабатывать обучением.

Ну вот и отмазки для эффективного менеджера подъехали, почему вибекодинг не работает. А просто мало денег потратили на агентов.

Очень интересно потом наблюдать, как они бегают с горящими сраками и осознанием, что тут "не пару багов исправить", а просто всё с нуля переписывать

Мое видение – на Рисунке 1.

Видна закономерность: каждая новая волна, начиная с чата, примерно в 5 раз продуктивнее предыдущей.

Ясно. Сам придумал доказательство, сам на себя сослался.

Вайб-аргументация получается - я так чувствую, значит правда.

Всем скептикам: бросайте все ... качайте и попробуйте кодинг-агента ... Они переворачивают все представления о кодинге с ИИ с ног на голову. Я сам три недели назад глазам не верил

Сейчас работает инженером в Sourcegraph над ИИ-ассистентами для кодирования

ИИ-ассистенты сами себя не продадут

Да, но...
Да, но...

Этот график должен доказать что разработчиков заменят ИИ-агенты?

  1. График в принципе не показывает долгосрочные тенденции, потому что построен за пять лет, на которые пришелся всплеск и спад, связанные с "коронавирусом". Собственно этот всплеск и последующий спад он и показывает, и более ничего. Вот предъявили бы картинку хотя бы за 10 лет, а мы бы на нее посмотрели

  2. График даже в таком виде показывает не падение числа вакансий, а выход на плато (ох уже эти любители приводить графики, где ось ординат не с нуля начинается, а с некого ненулевого уровня)

  3. Уже объяснял что уменьшение количества объявлений о работе означает сокращение "текучки кадров", а не количества рабочих мест.

Разбирали уже миллион раз, что это вообще никак не связано с нейросетями. На текущий момент не существует нейросетей, которые могут полностью заменить программиста в реальных задачах.

Судя по всему, именно так уже давно работает Oracle. По статьям про состояние дел в СУБД Oracle, там уже давно никто не понимает, как оно в целом работает, и спасаются только огромным количеством тестов.

Сначала думал что наброс жырного троля на хайповую тему. Пригляделся - оказывается перевод. После прочтения раздела "об авторе", все встало на своим места - человек.разрабатывает этих самых ИИ-агентов.

Хотя посыл и так довольно очевидный и неоднократно повторен в тексте - "Программисты (финдиры/компании), собирайте ваши денежки и несите их НАМ!" Может цинично, но автор аргументировал свою мысль, так что говорить о тупом маркетинге (как было в каментах выше) мне кажется некорректно.

Из статьи делаю вывод, что 2000+ баксов в месяц на джуна - это нормально. Мне нравится!

хитрый план: устроиться вайб-кодером, забирать весь бюджет на нейронки себе, и по тихому кодить вместо них >:)

Гениально!

А разве не наоборот? - $2000 на флотилии и кластеры ИИ, а джун работает за идею :-)

Правило плиточника - работа не будет стоить меньше материалов.

О! Согласен, что вайб-кодинг это круто, но когда читаю подобные статьи, что нейросетки заменят обычных программистов, всегда появляется вопрос: если программировать будут только нейросети, то как они будут обучаться новому? :)

Вот обновилась, предположим, библиотека. Надо научить нейросеть с ней работать... Но достаточного количества примеров нет - ведь без нейросетки писать больше никто не будет...

Все верно. Но и люди ведь не могут придумать ничего нового. Они также повторяют лучшие практики.

Эм... не совсем вас понял... А эти лучше практики они откуда взялись, если люди не могут придумать ничего нового? :)

Они были созданы эволюционно, путем естественного отбора.

Отбор - это хорошо. Но откуда возникает то, из чего можно отбирать - в этом ведь вопрос.

В случае естественного отбора в биологической эволюции ответ известен: за счет мутаций, вызванной нестабильностью биологических процессов.

А в ИТ?

Я думаю что общий принцип эволюции не завязан на мутации, хотя хз. Но в любом случае, недостатка в случайностях в мире нет, не вижу проблемы.

Общий принцип эволюции как раз завязан на мутации. Случайные они или искусственные (ГМО, например) роли не играет. Те, кто в результате мутации получил преимущество в приспособлении к условиям (опять же, естественным или искусственным) и продолжении рода, распространяют свои гены больше, чем те, у кого мутации сыграли в минус.

Забавная идея :) Но чтобы эволюция и естественный отбор что-то создали, они должны откуда-то взять исходный материал... Нельзя применить естественный отбор к чему-то, чего нет :)

Так вооот... Не подскажите, если люди ничего не могут придумать, то откуда взялись первичные практики, которые, в результате естественного отбора, превратились в лучшие практики? :)

Первичные практики, согласно данным современной науки, появились как минимум в момент большого взрыва, а далее был непрерывный процесс эволюции материи.

А чо, IT уже тогда было? А мужики-то не знали. :-)

Я не зацикливаюсь конкретно на IT, процесс эволюции материи непрерывен, а разделение на живое/не живое, нет электричества/есть электричество, нет компьютеров/есть компьютеры - это просто особенности человеческого мышления, которое не может воспринимать вселенную целиком, а вынуждено разбивать ее на абстракции.

Афигеть О_о

А можно ознакомиться с вашими источниками данных, которые утверждают, что ООП, функциональное программирование или Rest API появились в момент большого взрыва? :)

ООП разве было изобретено? Это принцип устройства систем, который работает в природе, он просто был открыт и применен в программной инженерии, читать Гради Буча, у него книга с этого начинается.

О как :) Платоновскими эйдосами пахнуло :)

На таком уровне спорить я не готов :)

У меня вопрос гораздо приземлённей. У вас веб-сервис на .net 9. Вот люди, которые ничего не могут придумать, выпускают .net 10, в котором снова переделали стандартные библиотеки. Нового кода нет, ведь все вайб-кодят, и генерят код, а не пишут. Человек-программист сможет научиться новому стандарту, а что с нейросетками? Ведь для их обучения нет примеров, нет исходных данных :)

Никто не переделывает заново все стандартные библиотеки каждый раз. Изменения всегда незначительные, как и в эволюции биологических существ. Стандарт новой версии C# будет описан в виде нескольких примеров использования какого-то синтаксического сахара, например. В чем проблема для ИИ использовать эту информацию?

Да и возможно, уже не будет особого смысла делать синтаксический сахар в новых версиях языка, ведь все будут вайб-кодить.

Ох... Вы не застали перехода от .net 1.1 к .net 2.0-2.1, да? :) Счастливый человек :) И "пары примеров" там бы точно не хватило :)

Но я вас понял :) Через год, когда вайб кодинг вытеснит обычное программирование, все языки, все библиотеки, все фреймворки навечно застынут :) Всё что им будет грозить - косметические изменения, затрагивающие буквально пару функций, которые исчёрпывающе можно описать несколькими примерами :)

Жуткая утопия...

Нет они не застынут а будут развиваться быстрее но в другом направлении. Возможно, многие языки исчезнут вообще.

P.S. утопия это описание мира идеального будущего, что-то вроде рая на земле, а описание ужасов это антиутопия.

Как они будут развиваться? Да ещё и быстро?

Ещё раз. Программистов нет. Новые данные для обучения - это данные сгенерированные теми же моделями. Т.е. новых фреймворков нет, новых языков программирования нет, новых практик нет, ничего нового просто нет, потому что модели не создают, а комбинируют только то, что уже есть.

П.С. про утопию это была игра слов :) С одной стороны время реально будет прекрасное, с другой стороны - полная стагнация... На антиутопию не тянет, ужаса нет, но жути нагоняет :)

Ваши доводы базируются на неявном утверждении о том что человек обладает какой-то уникальной способностью создавать новое из ничего. В сущности это аналогично теории креационизма, которая подразумевает существование "творца" который создал мир, только вместо творца тут человек.

На практике, человек не создает ничего нового, даже гении, которые делают открытия, являются всего лишь точкой кристаллизации маленьких последовательных эволюционных изменений и накоплений знаний.

Поэтому и искусственный интеллект тоже может действовать подобным образом, как и всё в природе.

Классно :)

Т.е. как-нибудь, сами по себе, не имея релевантных примеров, по которым можно выстроить токенезацию, LLM через какое-то время догадаются, что API в новой видеокарте изменился, а так же поймут как правильно использовать новую технологию, например, DLSS? Просто фантастика :)

П.С. папоротник живой и гораздо старше человека, у него было гораздо больше времени кристаллизировать маленькие последовательные эволюционные изменения и накопления знаний... Но Angular 9й выпустили люди :)

Но и люди ведь тоже не догадываются сами, без примеров. до чат-кодинга был гуглинг стэковерфлоу.

Вы должны понять что всё что может человек, может и нейросеть. Только быстрее и лучше.

Ещё раз. Я не спрашиваю как догадывается человек. Я спрашиваю как нейросеть, large language model, без примеров, без токенезации, догадается об изменении, например, API?

Так же как человек.

Хм... Раз вы так утверждаете, то вы, получается, знаете как догадается человек и как догадается LLM, и что эти механизмы одинаковы, правда? :)

Тогда ещё раз. Я не спрашиваю как догадывается человек. Я спрашиваю как нейросеть, large language model, без примеров, без токенезации, догадается об изменении, например, API? Сам механизм объясните, пожалуйста.

Зачем ей о чем-то догадываться? Человек разве догадывается? Он берет информацию и изучает.

Ещё раз. Как нейросеть, LLM, можно переобучить используя всего один абстрактный пример, который, обычно, и приводится в документации?

Наверное надо составить промпт с просьбой учесть этот пример. Я лично не пробовал. Хотя (вот прям щас) попробовал, chatGPT понял со второго раза.

Нет, надо вообразить что язык C# изменился, и теперь вместо символа "+" операция сложения использует строку "add", таким обоазом сложение чисел будет выглядеть как 5 add 3, а не как 5 + 3. Перепиши код с учетом того что язык C# изменился подобным образом.

Если вообразить, что язык C# изменился, и для сложения используется строка "add" вместо символа "+", то код может выглядеть следующим образом:

public class Calculator
{
// Метод для сложения двух чисел
public int add(int number1, int number2)
{
return number1 add number2; // Используем воображаемый новый синтаксис языка C#
}
}

Аха :)

Вы шутите? :)

Во-первых, а как же волшебное, что нейросеть как-то сама должна это понять? :) Зачем человеку вообще что-то прямо указывать? :)

Во-вторых: вы не переучили модель! КАЖДЫЙ раз перед нужным промтом вам НАДО будет писать эти вводные... Для КАЖДОЙ библиотеки, для КАЖДОГО изменения в этой библиотеке XD

И вам придётся это повторять, повторять и повторять много раз, прежде чем нагенерится достаточное количество материала, чтобы модель переучилась... Тем более, вы сами сказали, что со второго раза, значит, в базе точно будут ошибки, вызывающие галлюцинации :) Т.е. со временем этот гениальный план точно потонет в ошибках :)

Но модель может сама переучиваться при необходимости. Вы очень узко смотрите, исходя не из сегодняшнего а из вчерашнего даже дня.

Конечно может переучиваться :) Я с этим и не спорю. И результат уже описал: лавинообразное увеличение числа ошибок и галлюцинаций :)

Вы точно представляете себе принципы работы LLM? Она по определению ретроспективная, ей нужна довольно большая уже созданная база для обучения чтобы она могла что-либо генерировать. Никаких новых стандартов без людей на современных LLM не будет - они просто не научатся писать на чем-то. LLM это паразиты.

Только быстрее и лучше.

Ок, подскажите пожалуйста, вы понимаете СМЫСЛ текста? А вы понимаете что LLM никаким смыслом не оперируют - они умеют только выплевывать наиболее вероятный токен сквозь несколько слоев файнтьюнинга который не позволяет проявляться явной лаже. Вы уверены что это может в принципе развиваться?

Не думаю что человек может понимать смысл текста. Это сложный вопрос, на который никто толком не знает ответ, что такое вообще смысл, и есть ли он хоть в чем-нибудь.

Люди оперируют символами, так же как компьютеры. Я имею в виду символы вообще, а не символы алфавита, хотя это тоже частный случай символов. Есть ли какой-нибудь смысл в символе?

Не, не получится :)

Есть факт: API сервиса изменился.

Единственное место, где есть данные как именно изменился API: документация с абстрактным примером.

Человек, просто прочитав, сможет написать код, использующий новый API.

Нейросеть - нет.

Если вы уверены, что сможет, то каким образом? :)

Не думаю что человек может понимать смысл текста. Это сложный вопрос, на который никто толком не знает ответ, что такое вообще смысл, и есть ли он хоть в чем-нибудь.

Ну, приятно что оппонент сразу признает себя неразумным. С таковыми общаться не вижу смысла.

Конечно если в башке вместо фундаментальных знаний вата из курсов и телевизора, то и не получится общаться.

Никаких новых стандартов без людей на современных LLM не будет - они просто не научатся писать на чем-то. LLM это паразиты.

Недавно я тоже писал такой комментарий где-то, что вайб-кодеры будут рубить капусту на том что нищие гении будут делать что-то бесплатно, обучая ИИ. Но потом понял что это ошибочное мнение, т.к. человек принципиально ничем не отличается от ИИ, и вообще эволюция происходит в результате взаимодействия объектов в мире, а не изолированно в чьей-то голове. Ни один самый гениальный программист не родился таким, его сформировала среда. Все что у него есть в голове - результат воздействия среды. Человек это просто большой нейрон, а цивилизация это мозг. Ну будет вместо биологического нейрона - кремниевый, и что? Давно пора смириться с тем что мы утрачиваем субъектность, еще во времена античности ученый мог знать почти всё что знала современная ему наука, а сейчас он знает ничтожную долю. Но ведь наука продолжает развиваться.

Кажется, я нашел тот корень, в который надо зрить.

человек принципиально ничем не отличается от ИИ

Постов вы тут написали много, но, похоже, в основе большинства из них лежит именно это, сделанное без достаточных оснований, утверждение. То есть, истинным его считать нельзя. А дльше из неверного утверждения следует что угодно.

Ну будет вместо биологического нейрона - кремниевый, и что?

То, что нынешнюю реализацию ИИ называют словом "нейросеть", ничего не доказывает. Потому что, как именно работает мозг, в деталях - неизвестно. И вполне может оказаться, что биологический нейрон работает немного не так, как кремниевый. А потенциально достижимый результат может отличаться из-за этого разительно.

Если вы уверены, что сможет, то каким образом? :)

я думаю так же как и человек сейчас: получит от компилятора > пойдёт копать либу

агенты уже такое могут

Согласен. Минорные изменения, особенно если вводятся изменения, которые LLM понимает, которые уже встречал, LLM сможет... скажем так: достоверно вообразить.

Но если это структурное изменение, или изменение вводящее новое понятие, то LLM просто не сможет это осилить - у него не будет для этого базы.

Усугубляется ситуация, если изменений будет несколько. Как именно LLM соединит их, не имея чёткого примера, - отдельная интересная загадка :)

Я бы еще подумал вот над чем - сейчас в LLM уже практически без сортировки и валидации загружают все текстовые данные интернета и разработчики надеются что-то получить. То есть в LLM по некоторым языкам намешано паттернов из кодовой базы за 30-40 лет развития. Соответственно далеко не факт что в сгенерированном коде будут использоваться не современные безопасные паттерны и функции. А то и вообще какой-нибудь goto прилетит если звезды сойдутся. А потом нужно это все файнтьюнить на постобработке. Отличное решение как по мне, надежное как швейцарские часы.

Вы знаете как создаются дистрибутивы Linux? Типа, напихал кода с библиотек и всё работает? Тысячи людей сидят отбирают библиотеки, адаптируют, тестируют. Под каждый язык есть общедоступная LLM библиотека, постоянно дорабатываемая, качество этих библиотек крайне высоко, за ними следит огромное комьюнити, на популярных языках - несколько сотен тысяч людей занимается разработкой. Библиотеки многократно проверены и обучаются только на лучшей кодовой базе, крупные проекты с гитхаба на много тысяч звёздочек и прочая HQ кодовая база. Меня просто поражает, что мне приходится на Хабре! объяснять такие вещи. Любая популярная LLM, в свою очередь собрана из этих библиотек (коммерческие на самом деле втихаря тоже, как они отрицают что используют чужую бигдату, так и тут, на самом деле, по сути все коммерческие LLM такой же опенсурс под капотом, как и всё остальное, отрицают чисто что бы не было судебных претензий), т.е., цикл повторяется и усложняется, тысячи людей компилируют алгоритмы и библиотеки, тщательно следя за качеством получаемого проекта. А потом одинэсник на Хабре топит, что LLM это код собранный из творчества индусов, потому что ему из его стола в бухгалтерии так виднее.

мне приходится на Хабре!

Вы неспособны ничего объяснять потому что являетесь человеком нкоторый наслушался маркетинговой херни по теме в которой не является специалистом.

тысячи людей компилируют алгоритмы и библиотеки

Собственно вот и маркер. Будьте добры не нести херню. Звездочки у него индикатор качества, господи, насколько деградировало комьюнити.

У вас английский хотя бы базовый есть? Давайте, вы, прежде, чем писать из головы не имеющую связи с реальностью отсебятину - зайдёте на https://huggingface.co/, и погрузитесь в тематику, на пару часов. Ну ещё и погуглите немножко, да гуглить на английском - это базовый скилл. Потом и пообщаемся.

и погрузитесь в тематику

В смысле, ткнуть в предложенное "browse 1M+ models" и почитать наугад, что выпадет? Потому что по такому описанию ничего лучше, скорее всего, предложить не получится.

Это уже от ваших умственных способностей зависит.

У вас английский хотя бы базовый есть?

В твоей деревне английский, похоже, редкое явление, раз ты из треда в тред кичишься «базовыми скиллами», а сам несёшь бред, не имеющий связи с реальностью.

А вы понимаете что LLM никаким смыслом не оперируют - они умеют только выплевывать наиболее вероятный токен сквозь несколько слоев файнтьюнинга который не позволяет проявляться явной лаже. Вы уверены что это может в принципе развиваться?

А почему бы и нет? Нет, ну реально, почему это не может являться тем сакральным пониманием смысла?

При правильной работе с LLM вероятность ошибки меньше единицы на гугол, то есть ну да, рандомная генерация в основе, только когда она даёт ошибки реже, чем в 1/10^{100}  случаев - то это уже не назовёшь "вероятностной основой" с точки зрения здравого смысла.

Гениальнейшее изобретение для гениев с 0 ошибкой, доооо... Отсылаться на несуществующий стандарт это сильно.

Галлюционировать - дальше - еще круче.

Где же оно галлюцинировало, если во втором случае оно лишь предположило?

В том и галлюцинация, эксперт.
Стандарта RJ-45 не существует.
"Стандартом RJ" от bell с цифрами 4 и 5 в названии был как раз RJ-45S. Потом сначала люди в общении редуцировали S (single line) на конце а потом и прилепили это название на другой коннектор в другой сфере и с другим типом разъема. И обратите внимание - об этом знает даже вики но не суперпродвинутая безошибочная нейросеть от openai.
https://en.wikipedia.org/wiki/Modular_connector#8P8C

То есть получается галлюцинировала, верно? Ну и как бы ИНС не та же, но действительно, какая разница "эксперту"...

Да, галлюцинация была, и я тоже ошибся, ну я же не эксперт в сетевых технологиях, признаю. А по поводу теста, вы бы ещё gpt-2 спросили, в чем проблема использовать более новые модели? Ошибок то меньше будет. С мнением человека выше я не согласен, откуда это магическое взялось 1/гугол.

и я тоже ошибся

Ну так мой комментарий касался не ваших знаний а ошибочности в данных обучения LLM. И второе - то что там не идут ошибки времен первых образцов когда она дичь гнала по любым специфическим знаниям - не гарантия что она исправилась - очень вероятно что это уже работа полуручного файнтьюнинга поверх. Перетренировать LLM на порядке сложнее чем пригнать индуса с промтом "please-please never print that triboluminescence is a emission of electricity after snaping surface". Но снаружи этого не разобрать. Кстати явные устойчивые галлюцинации они правят прям очень быстро.

проблема использовать более новые модели?

GPT-4-turbo без reasoning это абсолютно легитимная, на поддержке, доступная и использующаяся модель, что не так? Причем что-то мне подсказывает что сейчас она используется статистически больше чем прочие модели openai.

С мнением человека выше я не согласен, откуда это магическое взялось 1/гугол.

Очевидно из маркетинга на https://huggingface.co/ Ну или из роликов в тик-токе. Ведь не может же быть чтобы корпорации вколачивали чудовищные деньги в работу LLM и не желали отбить деньги для этого рассказывая всем что будущее и счастье в той стороне. Всего 200 баксов в месяц и ты успешен, а кто не платит - тот отсталый и уже уволен.

Ещё один "умник". 99% среды LLM - это опенсорс, как и с Linux. Алё! Добрый день! Есть кто дома?

Колхозная риторика. Ты таскает телегу навоза из треда в тред.

Назови источник, где «99% среды LLM — опенсорс».

У вас с падежами проблемы? Ясно-понятно, так и думал что вы "казачок засланный", по риторике оно и видно. LLM моделей есть десятки тысяч, из них коммерческих - несколько десятков. Какой это процент считайте сами.

«Засланный» кем и зачем?

Большой вопрос для дискуссий, но это уже оффтоп будет. Можем на другую платформу для такого переместится, ну или в личке пообщаться.

Извольте, мне твоего бреда и так хватило.

Есть очень много исследовательских проектов которые не в опенсорсе.

Они все основаны на опенсорсе. Все коммерческие LLM конторы просто заходят на hugging face, тянут оттуда бигдату и библиотеки, потом такие - ОЙ! НОВАЯ ПРОГРЕССИВНАЯ РАЗРАБОТКА! ПЛАТИ ТРИ МИЛЛИОНА ДЕНЕГ ЗА БОЛЬШОЙ КОНТЕКСТ!

А Б С О Л Ю Т Н О В С Е L L M С О Б Р А Н Ы И З О П Е Н С О Р С Н Ы Х Б И Б Л И О Т Е К

Просто потому что им больше неоткуда взяться, кроме опенсорсного комьюнити никто больше LLM не занимается, потом накидываешь серверы помощнее и "У НАС ТРИЛЛИОН КОНТЕКСТА!!! ПЛАТИ!!! ПЛАТИ!!! ПЛАТИ!!!". Всё туфта и бибилиотеки и опенсорс у них все с hugging face. Просто технология выросла так быстро, что все ещё в шоке прибывают, что так вообще можно.

Наши LLM - тоже самое.

Просто берёшь библиотеки и бигдату с hugging face - делаешь билд, дообучаешь, называешь красивым именем, арендуешь сервак - и вперёд бабло стричь, добро пожаловать! Сейчас уже норма у топовых разработчиков свой кастомный LLM сервер.

Видюх побольше, и ТРИЛЛИАРД КОНТЕКСТА!!!!! При том что если LLM своя под свой проект, то просто собираешь в билд проект и получаешь безлимитный контекст, сколько памяти в неё закинул - столько и контекст, причём не обязательно даже видеопамяти, CPU/RAM модели всего на год-два отстают от классических.

Сейчас уже собрали полно малоресорсопотребляемых бибилиотек для кодинга, [https://huggingface.co/bigcode/starcoder2-3b] 17 языков, два гига. не благодарите. Скоро она ещё и на CPU/RAM выйдет.

Я изначально хотел "феерическую расстановку точек над LLM сферой сделать", но думал, что мне просто не поверят, что настолько всё просто, в итоге дискуссия сама заставила перейти на базовые понятия.

откуда это магическое взялось 1/гугол.

Его «гугол» — это псевдоматематический бред, как и большая часть того, что он несёт из треда в тред, игнорируя логику, здравый смысл и контраргументы.

Его «1/10^100» как мера вероятности ошибки LLM — лишь вершина айсберга его галлюцинаций.

При правильной работе с LLM вероятность ошибки меньше единицы на гугол

Что за бред ты несёшь? Вначале сложи 2+2, а потом рассказывай про «гугол».

Ты уже признал «рандомную генерацию в основе», но решил, что если ошибки «редки», то это «не вероятностная основа»? Это как сказать, что гравитация — не сила, потому что самолёты падают редко. Вероятностная природа — это не твой «здравый смысл», а архитектура LLM.

Ирония в том, что ты, ошибающийся на каждом шагу — от путаницы в терминах до выдуманных «гуголов», — утверждаешь, что LLM безошибочны.

Ты вчера отрицал, что Flutter лагает, а когда мы тесты глянули, оказалось, что он в 20 раз медленнее свифта на большом количестве объектов. Иди гуляй мальчик.

Мы — это кто? Ты и твои воображаемые полтора человека, которые верят в твой «гугол»? Заглянули в тесты, чтобы что? Уйти от ответа про твои «безошибочные LLM»? Ты вчера отрицал вероятностную природу трансформеров, а сегодня уже успел переобуться на одну ногу?

Сложи 2+2, прежде чем за псевдоматематику браться.

Похоже, вы оторваны не только от реальных сценариев использования Flutter, но и от реальности бизнеса с его нуждами и болями, которая и определяет ценность таких инструментов, а не ваши теоретические рассуждения.

milkyway044, шестого мая 2025 года, около девяти утра

А пока — удачи в мире, где LLM «не ошибаются» и Flutter «тормозит интернет».

milkyway044, шестого мая 2025 года, около одиннадцати вечера

А теперь жесткое погружение в реальность:

https://blog.theodo.com/2023/09/ios-rendering-performance/

Согласно замерам средняя стандартная девиация задержки прогрузки элементов интерфейса у Flutter составила 530ms против 24ms у Swift

Где логика и здравый смысл? Как твой «530 мс против 24 мс» доказывает, что LLM не ошибаются, колхозный гуру?

Уровень вашей компетенции показывает. Как позывает практика - занимаемая должность не показатель компетенции. Я вам начал объяснять, что Flutter, по общепризнанному мнению - корыто (ну пользуясь вашей риторикой) тормознутое, как и любая мультиплатформа, и клуб любителей Flutter понёсся меня минусовать с вами во главе. Только вот замеры не врут. А так - понимаю, конечно. Резко вырвал вас из вашей зоны комфорта, где вы ценный специалист и делайте прогрессивные разработки, только вот Flutter уже миллион раз во всём интернете обсуждался, и общепризнанное мнение по нему, что в плане производительности - он помойка (ну опять-таки, пользуясь вашей риторической стилистикой).

Минусуют тебя не за Flutter, а за то, что ты несёшь бред про «безошибочность LLM» и тупо игнорируешь разумные доводы. Похоже, у тебя своя альтернативная реальность, это очевидно со стороны, собиратель минусов.

Человек даже не понимает что понятие "смысл" является строго философским и неопределяемым.

Их будут обучать в приюте «Институт высшего образования» (привет Азимову ;)

Так, по вашей идее, нейронка и будет обновлять библиотеку, пусть тогда немного электроэнергии пожрёт и накидает примеров для других нейронок. Человекам останется только обучать нейронки на этих данных.

Так у меня как раз вопрос к качеству данных для обучения.

Вы обновили функцию с помощью нейростетки - ок. Эта функция стала принимать новый аргумент, и производительность выросла. Но та нейросеть, которая написала функцию, всё ещё обучена на старых данных. То, что она написала - пока только чать контекста.

Следующий шаг. Вы просите нейросеть, используя контекст, написать примеры использования новой функции.

И вот тут у меня появляются вопросы.

Насколько хорошими будут эти примеры, которые лягут в основу обучения всех остальных LLM? Их же пишет сама нейросеть, которая, пока, на этих данных не обучена. Не будет ли накопления ошибок, которое приведёт к коллапсу LLM?

К тому же, автор библиотеки вряд ли знает ВСЕ сценарии использования обновлённой функции. Значит, части LLM придётся фантазировать, или "промт-опрераторы" должны будут писать запросы, чтобы автор нагенерил данные по конкретному сценарию?

джуны гораздо охотнее принимают ИИ, чем сеньоры.

Из ежегодного отчёта stackoverflow Developer Survey 2024:

Даже с учётом всех "но" про то, что 10 лет опыта не обязательно сеньор и статистика это третий вид лжи, блаблабла, странно думать что большинство сеньоров это какие-то консервативные тупые деды и не захотят, например, упросить и ускорить себе написание кода и пойти дальше в архитектуру, например. AI также может ускорить процесс обучения даже(особенно) для сеньоров, которые, например, не хотят переходить с С на Rust для большей безопасности)

Сеньёров мало, джунов много. Linux индустрия сделана руками "джунов". Сто человек побеждает гориллу.

А эта статья разве не на конкурс Хабра по ИИ футурологии?

К счастью, прогнозы на короткий срок, так что через год сможем увидеть, кто был прав.
ИМХО: этого не случится в ближайшие годы.

Смотрю на комменты и вижу rsdn конца 2000-х, когда там плевались от хабра. Старперы негодуют что мир меняется и они не успевают. Надеюсь никогда таким не стану.

Если будешь жить достаточно долго, то рано или поздно станешь старпёром. От природы ещё ни один человек в мире не убежал))

Но есть старперы которые сознательно подавляют в себе тенденции старой мудрой обезьяны, которая неодобрительно смотрит на молодняк.

Больше всего меня радует картинка, где будущее занимает почти половину графика. Так и хочется спросить автора (хотя это сложно, здесь - всего лишь перевод): ему эту картинку на машине времени привезли? Или у него есть работающий хрустальный шар, в котором он увидел эту картинку?

Подозреваю, что нет. А если так, то что обсуждаем? Хотелки человека из OpenAI, которому нужен рост его акций (ну и хотелки автора заодно), или ещё что?

PS А в целом статья выглядит как манипуляция, основанная на эффекте упущенной выгоды, со стороны человека, который, пользуясь нашим местным жаргоном, оказался прошаренным и зашел в темку. Если чо, обычно такие вот заходы прошаренных в тему заканчиваются страданиями обманутых вкладчиков. Но если кто думает, что в этот раз внезапно будет не так - имеет право.

Вы сомневаетесь в том что ИИ заменит разработчиков?

Нет, я сомневаюсь в том, что надо обсуждать данные о будущем таким образом, как будто оно уже наступило и мы что-то о нем достоверно знаем. А автор статьи делает именно так.

Если он в чем-то и ошибается, то скорее недооценивает скорость изменений а не переоценивает её.

Я думаю что всё упрётся в количество энергии которое сможет потратить земная цивилизация на увеличение собственной энтропии. Лишь это будет ограничвающим фактором "прогресса" (по сути - самоуничтожения) которое может наступить в течение ближайших нескольких лет. Вот почему мы не видим неземных цивилизаций, потому что они тоже прошли этот путь.

Если он в чем-то и ошибается, то скорее недооценивает скорость изменений а не переоценивает её.

Мы здесь и сейчас не можем судить в чем он ошибается, недоооценивает ли или же переоценивает - у нас нет достаточных данных. А вот для вывода, что автор статьи пытается манипулировать читателями, данных достаточно. И мотив автора тоже легко просматривается.
Я - об этом.

Ну мотивы у всех есть, например мотив продавца - продать еду, что же теперь, с голода умереть?

P.S. манипуляций я не вижу. Примерно так оно и есть как написано. Действительно, тот кто будет тормозить, останется позади.

😂 представил человека, который стоит у доски и что-то теоретически обьясняет, а за партами сидят ИИ агенты, скрипят своими кремниями и байтами, чтобы понять что от них требуется, типо комманда ИИ агентов они видимо сами скооперируются )

Ну то есть по факту сейчас последнее поколение мидлов/сеньёров? Потому как с этим вибецодингом джуны так навсегда и останутся джунами.

Походу работать до 90 придется...

Знакомый токарь всё никак не уйдет на пенсию. Залолбали говорит. Едут и едут, едут и едут, со всей страны. Деньги в карманы пихают в чертежи завернутые итд итп. Пробовал больным прикинуться - стало хуже, приехали все кто откладывал и требовали диагноз, чтобы помочь с врачами итп.

Пусть подмастерьев берет и ваще оснует Гильдию Токарей, с тайными знаниями и пр.! :))

Тогда от него все бегать начнут.

Люди к нему едут потому, что никакая часть работы не будет сделана кем-то некомпетентным...

В целом найти подмастерье которого не застрелишь потом почти невыполнимый квест. Или дебилы, или рукожопы или тормоза или хотят 100500 денег в секунду, но обычно коктейль из всего этого.

Т.е. лично я на его месте точно сэкономил бы свои нервы, смысла их мотать немного.

а фамильную династию по этой теме нереально основать?

Разрабам постоянно что-то "угрожает". Из последнего это nocode. И где оно теперь? Да там же как и все остальное. В своей нише. В принципе со времен начала программирования каждый инструмент, даже первые языки программирования, заявлялись как средство победить программистов :)

НедоИИ, конечно, с виду кое-что умеет, но косячит. И чтобы понять где и как нужно иметь опыт. Который у джунов просто отсутствует. В результате получим не разраба, а оператора агента, который сам по себе ничего не умеет, а те кто умеют в итоге навыки такие потеряют. Люди разучатся думать вообще.

Что ж вы не полностью-то переводите? Последний абзац оригинальной статьи весьма показателен.

Thanks to my boss Quinn Slack for blowing our minds with most of these ideas a week ago. Hope you found this useful in some way. I'm off to fart on some investors. Ciao!

Да как-то посчитал шутки про пердёж не совсем уместными тут. В начале они тоже были. Кому интересно, прочитает в оригинале.

Почему же шутки про пердёж неуместны? Вся статья Йегге в оригинале — это один большой пердёж. Вырезать это — всё равно что убрать половину его харизмы.

Пердёж - это производительность на вашем любимом Flutter

Прогнозы на будущее от deepseek и chatgpt. Шутко прогноз

deepseek ::Тенденции по годам

2024–2030: ИИ как помощник, а не замена

  • Автоматизация рутинных задач: ИИ (Copilot, CodeLlama, Gemini Code) ускоряет написание кода, генерирует шаблоны, предлагает исправления.

  • Снижение барьера входа: Новички смогут писать работающие программы с помощью ИИ, но качественный код потребует человеческого контроля.

  • Смещение спроса: Вместо "кодеров" ценятся архитекторы, инженеры ML, специалисты по безопасности — те, кто управляет ИИ.

2030–2040: Частичная замена младших разработчиков

  • Автономные агенты: ИИ сможет самостоятельно выполнять небольшие проекты (лендинги, простые API, скрипты).

  • Снижение числа джунов: Компании будут нанимать меньше junior-разработчиков, так как ИИ справится с их задачами.

  • Рост "редакторов кода": Программисты станут больше корректировать ИИ-генерируемый код, чем писать с нуля.

2040–2050: ИИ как соавтор, но люди останутся

  • Сложные системы: ИИ сможет проектировать ПО, но люди будут задавать требования, проверять логику, исправлять ошибки.

  • Этические и креативные задачи: Люди останутся для принятия решений, где нужна мораль, интуиция и нестандартное мышление.

  • Нишевые языки и legacy-код: Старые системы (COBOL, AS400) могут оставаться за людьми из-за недостатка данных для обучения ИИ.

После 2050: Гипотетическая полная автоматизация?

Если AGI (искусственный общий интеллект) станет реальностью, теоретически он сможет заменить программистов. Но:

  • Потребуются "надсмотрщики" (как сейчас DevOps следят за авторазвёртыванием).

  • Юридические и этические барьеры: Кто отвечает за баги в ИИ-коде?

  • Креативность: ИИ пока не умеет придумывать по-настоящему инновационные решения.

Вывод: что делать программисту?

  1. Осваивать ИИ-инструменты (Copilot, ChatGPT, автотесты).

  2. Переходить на высокоуровневые задачи (архитектура, ML, безопасность).

  3. Развивать soft skills (управление проектами, коммуникация).

  4. Специализироваться в сложных областях (квантовые вычисления, embedded-системы).

ИИ не заменит всех программистов, но заменит тех, кто не умеет с ним работать.

chatgpt::2023–2025 — ИИ как соавтор и авто-дебаггер

  • GPT-4, Claude, Gemini и другие модели умеют:

    • писать целые модули,

    • находить баги,

    • писать тесты,

    • генерировать документацию,

    • объяснять чужой код.

  • Всё чаще используется подход: «человек задаёт намерение → ИИ генерирует черновик → человек улучшает».

  • Появление AutoGPT, GPT Agents — ИИ может выполнять цепочку действий (но всё ещё нестабильно).

  • ИИ активно внедряется в IDE (VSCode, JetBrains).

🔮 2025–2030 (прогноз) — автоматизация 80% типовой разработки

  • ИИ сможет:

    • реализовывать стандартные CRUD-приложения почти без участия человека;

    • сопровождать проекты, писать миграции, тесты;

    • помогать писать спецификации по ТЗ;

    • фиксить баги в больших кодовых базах.

  • Человеческие роли:

    • постановка задач;

    • архитектура;

    • дизайн и UX;

    • аудит ИИ-решений;

    • контроль безопасности и ответственности.

🧬 2030–2040 (предположительно) — смена роли программиста

  • Программисты станут «техно-директорами»: они больше ставят задачи ИИ и проверяют результат.

  • Профессии исчезнут? — Нет. Появятся новые роли:

    • инженеры-подсказок (prompt engineers),

    • верификаторы ИИ-кода,

    • специалисты по обучению моделей под конкретные задачи,

    • разработчики, умеющие объяснять бизнес-логику ИИ-системам.

❌ Полная замена?

  • Только в узких нишах. Полная замена требует:

    • общего ИИ (AGI), способного понимать цели, контекст и последствия,

    • юридической и этической инфраструктуры.

Эскадры агентов, флотилии кластеров, в-yо-бушки-воробушки! Даже когда я небрежно наливаю пиво нет столько пены!

Офис "Nvidia" должен закосплеить офис "Cyberdyne" из второго Терминатора, во имя спасения человечества!!!

"Вайб кодинг" = говнокодинг. Это не новая штука, говнокодинг был всегда. Желаю успеха тем самым вайбовым, прогрессивным и перспективным джунам, которые теперь могут создавать в сто раз больше говнокода.

В Shopify с 2025-го не нанимают разработчиков, которые не умеют работать с LLM. Так, для справки. Это уже базовый требуемый скилл на глобальном рынке, скоро и у нас так будет. Просто все будут локальные опенсорсные оффлайновые LLM использовать, что бы не прыгать через три забора, они уже не уступают в плане генерации кода гигантам, причём даже самые базовые модели на пару гигабайт тащат на популярных языках. Опенсорс библиотеки в 2025-ом не уступают коммерческим LLM в плане генерации кода. Индустрия развивается быстрее чем дистрибутивы Linux. Можно просто встроить свой проект в LLM и получить бесконечный лимит на контекст (сколько памяти закинете, такой и контекст, а модели на CPU/RAM уже не сильно хуже традиционных, т.е., домашняя LLM норма уже сейчас даже, я постоянно читаю/смотрю, как ведущие разработчики пишут об опыте (положительном) использования "домашних" LLM). Если язык популярный, берёте библиотеку вроде такой [https://huggingface.co/bigcode/starcoder2-3b], она на 17 языках обучена, вес 2 гигибайта, и встраиваете в неё свой проект. Привет контекстное окно больше, чем у Claude и Gemeni, на несколько порядков больше. Её сейчас ещё и полюбому форкнут на CPU/RAM, и всё, добро пожаловать в домашнюю генерацию кода, даже интернет не нужен, залил логику и смотри как код генерируется.

Встроить проект в ллм или ллм в проект? :)

В Shopify с 2025-го не нанимают разработчиков, которые не умеют работать с LLM. Так, для справки. Это уже базовый требуемый скилл на глобальном рынке, скоро и у нас так будет.

Не с "2025-го", а буквально месяц назад объявили, еще рано говорить о каких-то результатах. Плюс, где вы взяли, что это базовый требуемый скилл? Ни одна AI-компания, ни FAANG не требуют опыт с LLM, хотя казалось бы.

Для справки, что говорит Head of Engineering Shopify: 76% разработчиков используют copilot (т.е. чуть более продвинутый автокомплит), целых 25 принятых дополнений в день (почти 30 процентов!). Мммкей.

Не знаю ответит ли кто-то на мой вопрос, но мне интересно вот что. Тут в основном говорится про разработку ПО, но кто-то может подсказать, что там с взаимоотношение ИИ и таких специальностей как сисадмин, DevOps и тому подобное?

Я думаю, что на подходе. Вспоминаем Крепкий орешек 4.0 , про айти рулящее инфраструктурой.

И ждем пока Ии отучится шестым пальцем размахивать рядом с рубильником...

Из плюсов статьи только то, что тут честно сказали, что стоить это всё будет как самолёт.

Альфа-Банк рекламирует, что у них уже работает команда Ии.

Все роли занимают ии - Рп, аналитики, тестеры, разрабы... Мало того, команд несколько, они конкурируют, и ии-рп отстаивают ресурсы своей команды перед начальством...

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации