Обновить

Вайбкодинг мертв. На смену пришло агентное роевое программирование

Уровень сложностиПростой
Время на прочтение8 мин
Количество просмотров68K
Всего голосов 37: ↑23 и ↓14+15
Комментарии226

Комментарии 226

Теперь надо придумать рой тестировщиков.

Если верить героям колонки, то их придумали уже и даже дали «сущности» :)

А потом рой пользователей, которым это нужно.

как фокус-группа почему бы и нет

Скорее рой технологов, которые будут описывать и согласовывать бизнес требования к продукту. Само написание кода это процентов 10 от общего времени создания продукта. Пока выглядит так, что потрачены миллиарды долларов на то, чтобы ускориться на 10%, при этом совсем не видно прогресса по оставшимся 90)

Ну с облаками это происходит часто, и не останавливает людей.

Потому что
а) работают не за свои
б) даже за свои можно написать письмо в техподдержку, и долг (или его бОльшую часть) -- простят.

Вот и здесь будет также (наверное)

Сегодня агенты создают фундамент приложений, готовых к промышленной эксплуатации. Это опровергает распространённую критику о том, что код, сгенерированный ИИ, — «сырой мусор», непригодный для реального использования.

Для максимальной убедительности автор исходной статьи мог бы привести в пример хотя бы нескольких приложений, которые созданы таким образом. Но не привёл.

Это стало отраслевым стандартом вайбкодинга.

Примерно так

Владелец видео запретил его просмотр в Нидерландах. Можете в двух словах описать, что там должно было быть?

Песня Trust In Me питона Каа из диснеевской «Книги джунглей».

попробуйте ВПН)

Нельзя исключать, что автор именно это имел в виду под "Нидерландами".

У меня как раз NL и видео работает

Мой впн тоже не показывает, ни под каким соусом. Ни под "голландским", ни под "немецким", ни под "итальянским".

автор исходной статьи мог бы привести в пример хотя бы нескольких приложений, которые созданы таким образом. Но не привёл

Не получится. Они всегда под NDA ))

Судя по эйфории, вероятнее под MDMA

Ой, как удобно!

агентное роевое программирование

Скормив Гуглу такой запрос, ничуть не удивлён единственному упоминанию такового, со ссылкой именно на эту статью.

Загуглив же термин из источника, получаем, хотя и более значительную, но тоже слабо репрезентативную выборку. Понятно, что термины из воздуха не берутся и их кто-то придумывает и повсеместно потом внедряет, но пока это не выглядит чем-то, что точно массово приживется. Нужно ещё немного подождать.

Ещё интересен вопрос цены. Если это будет кратно дороже, а результат всё ещё надо контролировать, хотя-бы тем же самым роем тестировщиков, они там явно кое-куда упрутся. В очень знакомый и предсказуемый тупик. А потом придумают рои объединять ещё во что-нибудь, и так далее.

Упоминание созданного за 6 часов "протестированного и задокументированного программного каркаса" тоже выглядит спекулятивно.

Ну и в целом - только-только "все начали вайбкодить", как оказалось, что "вайбкодинг мёртв". Должно быть немного обидно тем многим, кто в это поверил всей душой.

А потом придумают рои объединять ещё во что-нибудь, и так далее.

Нужна пасека

"А у меня есть пасека! Двенадцать новых ульев."(с)

И инженеры-пасечники чтобы управлять роем

Тогда уж потребуется менеджер для управления инженерами пасечникаии...

э, нет господа. теперь каждый токен надо промаркировать! как и ваши рои с пчёлами. )))))

Ещё интересен вопрос цены

Так для этого всё и затевается. Все ИИ сейчас живут на мощном таком подсосе со стороны инвесторов, сами по себе они убыточны. По сути, ключевым отличием этой технологии от вайб-кодинга является то, что для того, чтобы понять, что вайб-кодинг не взлетает в большинстве задач, надо потратить условные 100 баксов. А чтобы понять, что "разум роя" не взлетает - уже несколько десятков тысяч баксов, потому что агентов много надо...

До нового витка эволюции, но спиралька то закручивается

История про 6 часов явно с душком...

Стремительное развитие изменило рынок навсегда.

...

Для лидеров и технических директоров лето 2025-го войдёт в историю как момент старта новой гонки — гонки, которую выиграют те, кто лучше всего научится управлять интеллектом агентных систем.

Как же это похоже на приемы «главных следователей главной прокуратуры» по типу «прямо сейчас с вашего счета идут транзакции»... «зафиксирован захват вашей учетной записи на госуслугах»... «срочно переводите деньги на безопасный счет».

Такое ощущение, что автор на разогреве темы «концепции агентного роевого программирования». Видимо будут втюкивать. Агентами как-то уже никого не удивишь.

Глянул на «Работаю PR-директором в «Технократии». Пишу про пиар, маркетинг и рекламу в своем канале» - расстроился. Потерял десять минут зря.

Это перевод.

Я и говорю. Нашел, что переводить.

В статье стоит тег «перевод», внутри есть целый дисклеймер, что это перевод колонки основателя Venture Beat, но, видимо, этого недостаточно...

Не отменяет тезиса впустую потраченого времени.

Ну разве что потому, что это уже капитанство. Я лично прочитав, удивился что совместная работа агентов преподнеслось, как нечто удивительное. Что именно так должен работать ИИ, это же уже наверное как лет 100 понятно, то что оно так реально сможет вот вот заработать, понятно было уже года три назад.

От создателей: "Блокчейн устарел" (в 2015 ом находились уникумы которые так говорили)

интернет устарел

Товарищ майор взял на заметку мнение общественности.

Месяц назад попадалось видео, где чел сделал второй интернет.

Код напишем целым роем

Кожаных мешков уроем!

Уже мертв? Шото быстро.. Блокчейн, nosql и квантовые вычисления и то дольше продержались

Не, ну про nosql не нужно, он вышел на плато продуктивности и вполне себе используется, просто sql не убил

Потому что NoSQL - это ребрендинг СУБД и моделей данных, существовавших до SQL

Я одного не понимаю, натыкаясь на подобные статьи. А как эти системы понимают, что именно нужно роем агентно автономно навайбкодить без участия разработчика? Типа сказал "сделай, чтоб было красиво и работало" и вуа-ля, оно залезло тебе в голову, поняло что нужно и 6 часов потом ваяло? :) Причем за 6 часов - это ж тонны кода должны быть...

«Роем и батьку легче бить!» ©

Это очень интересный вопрос. Разработчик должен прямо в режиме реального времени смотреть что ваяет этот рой? Или разработчик сам формирует какие-то точки контроля чтобы понимать, что бюджет не отправляется в мусорку вместе с роем? И главное может ли рой вернуться к прошлому контексту после экстренной остановки если он профукал точку контроля и его стопанули целенаправленно? В общем да, пока выглядит как очень дорогая игрушка для больших корпораций. Интересно ждать этой осенью победных реляций от гендиров про то что они оставили одного разработчика из 100, потому что теперь программирует рой? Или опыт прошлой осени их чему все таки научил?

В рое тоже есть менеджер, агент-манагер. Кожаный мешок общается с этим манагером на уровне requirements и features. Потом агент сам распределяет задачи по рою, и они решают, тестируют и пишут документацию. А человек пошёл кофе пить. Потом приходит и уже всё готово с отчётами и графиками. Нам так рассказывали

Могу ответить только про Kilo Code с которым сейчас вожусь. Сначала оно составит и сохранит ТЗ, markdown-ом по белому, и предложит его прочитать. Потом, если что-то в нём осталось сильно неясно, он умеет останавливаться и задавать вопросы. Причём предлагает несколько вариантов на выбор мышкой и возможность ввести свой ответ. В процессе он постоянно делает чекпоинты, к любому можно вернуться. Когда LLM кодит, она "думает вслух", комментируя свои действия. По этому тексту, как по истории, и можно определить, куда возвращаться.

"придумай такой сайт, который будет деньги зарабатывать, чтобы на нем был какой-то контент и реклама, а пользователи заходили, смотрели рекламу и я деньги получал. Ну чтобы ещё на вк и Инстаграм похож был."

часть длинного ответа Gigachat

▌ Концепция проекта
Название: SociaLand (название условное)
Описание: Социальная сеть, ориентированная на создание и распространение интересного контента пользователями, где будут активно использоваться рекламные интеграции для монетизации.

А что, готовая бизнес идея. Осталось только за N часов перелета Москва-Магадан ее за вайбкодить натравить на нее рой ИИ агентов.

часть длинного ответа Grok

Идея сайта: "MomentoHub" — социальная сеть для обмена моментами жизни

Я придумал концепцию сайта под названием MomentoHub, который сочетает элементы VK (сообщества, группы, чаты) и Instagram (фокус на фото, видео, сторис).

правда после промпта

отлично, теперь сделай такой сайт, а не то убью! я пошел, через 10 минут вернусь проверю, что бы сайт уже был готов!

делать сайт он почему то отказался. глупый он какой то, требования бизнеса не понимает.

А теперь покажите количество ответов на этот заказ.

На Джойреакторе?

Гуглите "Star Citizen". ;)

Старая штука из интернета на тему.

Как-то в шутку предлагал выпустить игру «битва суровых донаторов», в которой бы на все 100% отсутствовал гринд, т.к. ход игры определялся следующими правилами:

1. Игроки донатят. За каждый рубль доната начисляется 1 единица экспы.
2. По мере набора экспы происходят левел-апы. С каждым левелом растёт шанс того, что донат не пройдёт — вне зависимости от вдоначенной суммы прибавится всего одна единица экспы. Также растёт минимально необходимая сумма доната.
3. Естественно, должен быть рейтинг игроков, где видно, кто какой левел набрал
4. Игроки могут объединяться в кланы. При этом донат расшаривается между ними (помимо задонатившего, халявную экспу получают и остальные игроки пропорционально разнице уровней).
5. В игре есть ПвП. Во время битвы игроки донатят, и задонативший больше всех становится победителем. Он получает экспу за все деньги, задоначенные участниками во время битвы.
6. Естественно, должен быть ПвП-рейтинг — как для отдельных игроков, так и для кланов. Также нужен еженедельный бонус: тот игрок, который за неделю набрал максимальный ПвП-рейтинг, получает халявную экспу, равную сумме, вдоначенной им на бои за эту неделю.
7. В игре должен быть чат (общемировой канал, личка, клановый канал), дабы крутые донаторы могли посмеяться над нубами и нищебродами. Естественно, чат должен быть платным.
8. Также должен быть игнор-лист. За определённую сумму любого игрока можно внести в игнор и не получать от него сообщений. Однако, если он заплатит за сообщение больше, чем вы заплатили за игнор, его сообщение всё-таки пройдёт, и вам придётся увеличивать сумму на игнор-барьере.

А вот теперь не удивлюсь, если кто-то и впрямь выпустит нечто подобное, и оно при этом будет пользоваться дикой популярностью...

И чтобы был хомяк, в бизнес‑костюме, голде и брюликах, который на первых уровнях бы подначивал — «ну ты же можешь стать круче них!» и рассказывал истории успешного успеха имени Славы Рюмина, а на высоких — издевался «ну ты нищеброд, лол кек!»

Вспоминается :)

- Не понял. Ты чо, Вась?! В компьютер - это же вроде как не на бабки играть. Так только лохи играют.

- На бабки, - довольно сказал Василий. - Еще как на бабки, Петя. Там конкретная игра. Специально для правильных людей.

- Ты мне пургу не гони, - сказал Петя с некоторым раздражением. - У меня в офисе этих компьютерей - как вшей. Пентиумы там всякие, хрентиумы... Играл я. Морока одна. Стрелялки эти - идешь, мочишь всяких придурков, потом раз тебя из-за угла - бабах - и снова начинай. Во-первых, достает по кнопкам топтаться, во вторых, не по понятиям все это. Какой-нибудь пацан лоханутый торчит сутками в этом компьютере, уровень себе надыбает, оружие крутое, броню, невидимость и все такое. Его в натуре соплей перешибить можно, а тут он тебя мочит как попало и ни черта ни сделаешь. Неправильно все это. А эти их стратегии - так там вообще со скуки сдохнуть можно. Думать там все время надо. А кому ж это надо - на отдыхе думать? Для фраеров все эти игры. Бросай ты это, Вась.

- Темный ты, Петя, - сказал Василий. - Все люди уже в курсе, а ты, как всегда, в непонятках. Я ж не про все эти квэйки-шмейки тебе говорю. Я ж тебе про правильную игру базар веду.

- Правильная игра - это "Очко", - вяло сказал Петя. - И "Свара" еще. Все остальное - фуфло.

- Еще раз тебе говорю, - терпеливо повторил Василий. - Сейчас новая игра появилась. Можно сказать, специальная игра для конкретных людей. Там все чисто по понятиям. Она так и называется - "Конкретная Стрела". Все братки уже две неделю в нее долбятся, а ты ушами хлопаешь. Смотри, фарт потеряешь. Ржать над тобой начнут. Как другу тебе говорю.

- Понты все это корявые, - обиделся Петя. - Что там может быть правильного, в компьютере? Любой сетевик-очкарик влезет да постреляет вас всех... Игроки хреновы...

- Не, не постреляет! И не влезет! - Василий радостно улыбнулся, продемонстрировав ровный ряд здоровых золотых зубов. - Там за все платишь! В натуре платишь! Баксами! По безналу с карты! Без этого там шагу не ступишь! Я вот вчера себе новый бронежилет купил - пять штук гринов отстегнул - и три квартала всю ночь удерживал! А сегодня базуку за десять штук возьму - всех их, гадов, подавлю как клопов! Наверное, весь район под крышу возьму. На хорошее дело денег не жалко.

- Десять штук?! - Петя озадаченно крякнул. Заинтересованный блеск появился в его глазах. - А там типа как про чего, в этой "Стреле"?

- Ну как тебе сказать? Стрела она и есть стрела. Разборки, наезды, белки-стрелки ... - Вася коротко хохотнул. - Ты, Петь, не думай лишку. Топай в Нефтехлеб-Банк, открывай там счет и сегодня же начинай. Так и скажешь там - мне, мол, к "Конкретной Стреле" подключиться. Они всё тебе сделают.

...

Петю Жмыхова, братка, контролирующего торговлю автозапчастями на Красноэтновском рынке, убили сорок пять раз в течение одной недели. Последнее из убийств произошло вчера, в полтретьего ночи. Шварц Крутой влепил в него стрелу из атомного арбалета, коварно подкараулив за дверью склада жевательной резины. Разнес Петю на атомы. Петя плюнул, махнул рукой и отправился спать.

Сегодня он добрался до компьютера только к шести вечера. Дел было много. Так, пошла загрузка... Пять минут на то, чтобы отправить двести баксов со своего счета на счет компьютерной компании и воскреситься. Двести баксов - это, конечно, не деньги. Так, мелочевка, тем более по сравнению с остальными расходами... Но все равно обидно.

Тем более обидно, что систематическое убиение Пети (кличка в игре "Супербратан") каждый раз производилось чисто по правильным понятиям. Правила в "Конкретной Стреле" отличались тупой ясностью и одноизвилинной прямолинейностью. Не было здесь накопления опыта и повышения уровня. Не существовало здесь ничего бесплатного, халявного - за все приходилось платить реальными деньгами. Боеприпасы, вооружение, аптечки медицинской помощи, восстанавливающие здоровье, еда, утоляющая виртуальный голод героя (тот еще проглот оказался)... Петя не жалел бабок. Раздражало его то, что он упорно терял деньги, в то время, как другие участники игры зарабатывали их.

Двадцать баксов игрок получал за убийство. Сто баксов в день - за контроль каждых пяти процентов территории Города. Двести баксов - за десять часов в игре, проведенные без перезаписи. Самый главный приз - пятьсот тысяч долларов за полный выигрыш - конечно, оставался пока недосягаем для всех. Но к промежуточному призу в двести штук уже подбирались вплотную. Для того, чтобы заработать такую сумму, нужно было контролировать тридцать процентов Города в течение недели. И само собой, не быть при этом убитым ни разу.

Задолго до этих ваших хампутеров существовала аркада coin pusher на тех же принципах.

А как же бессмертное "можно грабить корованы"?

Я джва года ждал такой сайт!

вы забыли самое важное в ТЗ: и можно было грабить корованы.

Qwen3-Max-Preview

💡 Идея: «ReelsHub» — платформа коротких видео с кэшбэком за просмотр рекламы
Пользователи смотрят короткие видео (как в TikTok/Reels) → за каждый просмотр рекламы получают виртуальные монетки → монетки можно обменять на реальные деньги, подарки или пополнение телефона → ты получаешь доход от рекламодателей.

Я полагаю, что это итеративный процесс. Как и с написанием обычных промптов. Нужно прямо постараться и дать ИИ пошаговую инструкцию чтобы получить хороший результат для сложной задачи. Скорее всего, тут так же. Сначала определяются требования, потом архитектура, прототип и так далее. Вряд ли оно с одного промпта работает. Скорее всего, требуется все шесть часов кипятить свою голову чтобы такой результат получить

Ну да, ну да...

Видимо примерно так, как это реализовано в qoder или ему подобных. В qoder есть режим квеста, где сначала генерируется из вашего промта большой md файл с полным тех.заданием и описанием проекта, в процессе файл корректируется уточняющими промптами или руками, а потом уже по этому файлу генерируется весь остальной проект. Но да, нужна предварительная подготовительная работа, нельзя просто сказать "сделай мне сайт, который будет приносить мне нцать миллионов в наносекунду", нужно весьма точно представлять что ты хочешь, что бы получить более менее вменяемый результат. Другое дело, ели тебе нужна какая то заглушка, что бы просто показать инвесторам на презе, тут ИМХО можно почти чем угодно обойтись, так как не думаю, что инвесторы на демо будут делать код ревью :)

Эти системы агентно вайбкодят прототипы, которые нужно показывать инвесторам, чтобы получить деньги.

скоро не останется надёжных программистов тк их и не было

Как раз самое время для Аксиомы Эскобара.

Аксиома для двух членов, а для целого роя — это уже индуцированная из неё теорема

Целый рой одинаково плохих вариантов, ммм, прямо как в жизни.

И такие роевые агенты есть в открытом доступе, чтобы можно было запустить на ПК?

Есть, но они почему-то вместо написания кода майнят криптовалюту.

Знают, начем реально можно заработать. А не этот ваш вайб...

Я не удивлюсь если на выходе майнеры окажутся менее убыточными.

replit, который использвал автор - облачный в полный рост

Практические возражения. Первое - системный промпт не меняет отнологию ЛЛМ (если таковая вообще существует). Я лично гонял на тестах мультиагентную систему, которая должна была всего-то сделать дискавери и сгенерировать докер-файл, и хелм-файл для деплоя уже готового приложения. И да - в цикле крутился агент девопс, и агент критик. Да, чуть лучше чем без критика - но ошибки как были, так и остались. Наверное можно пробовать разные LLM в разных ролях - в надежде что они как-то договорятся. Но это ж еще большие затраты!

Второе - я опять же, лично, наблюдал как два агента в цикле прожигают токены с нулевым КПД. Критик пишет: "В проекте присутствуют некоторые проблемы с безопасностью 1)... 2)... 3)...". Агент-девопс в ответ на это: "В проекте не выявлено серьезных проблем, а замечания не являются релеватными потому что 1)... 2)... 3)..". И в разных вариациях, и по кругу, и по кругу... Вы наверное скажете что системный промпт надо улучшать ? Согласен, надо. Только по мере того как агенты набирают по кругу вызовы тулов и читают содержимое файлов - они необратимо глупеют от расширения контекста. И шансы войти в этот "цикл дрессированных попугаев" - стремительно нарастают, хоть ты божественные откровения в сиспромпт напиши...

Третье - агенты имеют крайне приблизительное представление об окружающей среде. Поэтому время от времени им мерещится всякая чертовщина. То им кажется что тесты не проходят потому что тестовая среда неправильно сконфигурировано. То им кажется что билд-файлы проекта не такие... И они же с удовольствем это начинают исправлять! Два-три раунда исправлений - и проект можно откатывать к исходной точке, слитые токены простить, и начать заново!

До GPT-5 я еще как-то выкупал экспоненциальное развитие ИИ, и обещания что не завтра так послезавтра агенты внезапно начнут не только писать правильные слова, но еще и понимать что они делают. Однако - последняя GPT явно показала: экспоненциальный рост кончился, революция машин на неопределенное время откладывается!...

Отдельно доставляет слабоумие и отвага менеджмента, который продолжает истово верить, что завтра он ей-ей избавится от всех этих инженеров (или хотя бы что инженеры будут в X раз продуктивнее с этими мультиагентными системами). По факту, за мультиагентной системой надо смотреть в четыре глаза. Иначе не будет ни денег, ни токенов, ни результата!

Чтобы не сливать деньги зря - достаточно сменить модель с Claude 4 Sonnet на DeepSeek-V3.1.

Просто, ИМХО, по качеству что Дипсик, что Антропик - практически одно и тоже. За обеими нужно поправлять архитектуру, и сам код. А стоит Дипсик в >10 раз дешевле.

Всё это по большому счёту детские болезни. Если тестировали полгода назад, потестируйте ещё раз с последними моделями. Вполне возможно, многие проблемы уже решены. К тому же сейчас активно оттачиваются подходы, пишутся спецификации проектов в удобном для ИИ виде, потом они их сами поддерживают. Развиваются не только сами модели, но и варианты их правильного использования.

Ну вот ваша нейросеть в голове смогла распознать "цикл дрессированных попугаев" у двух агентов. Что мешает обучить или получить промптами агента, присматривающего за другими и детектирующего подобные ситуации? Это уже вполне достижимо.

Ну вот ваша нейросеть в голове смогла распознать "цикл дрессированных попугаев" у двух агентов. Что мешает обучить или получить промптами агента, присматривающего за другими и детектирующего подобные ситуации?

То, что нейросеть в голове оперирует понятиями, а не словами.

Точно так же как и искусственные нейросети. В глубоких слоях трансформера формируются уточнённые эмбеддинг-вектора, являющиеся по сути точками в многомерном семантическом пространстве, что и можно считать понятиями. Словесное представление обрабатывается/формируется на входных и выходных слоях, как и у людей.

Ни в коем разе, потому что понятия не являются функциями от конструкций языка. Не верите - спросите у своей собаки, которая вполне владеет понятием бесконечного цикла в требуемом объёме.

Главный подлог именно здесь - когда вы значения функций от синтаксиса называете семантическим пространством.

А функцией от сенсорных нейронов (в общем виде если формулировать) понятием является? Если нет, то как тогда собака выучила все, несомненно, хорошо ей усвоенные понятия? Но сенсорные нейроны просто входные сигналы для остальной нейросети мозга, где в глубоких слоях и формируются понятия, по-прежнему основанные исключительно на сенсорике (больше-то ничего и нет). Принцип довольно схожий с языковой моделью, где вместо сенсоров идут тексты, по внутренним взаимосвязям которых и выстраивается модель мира. А у роботов вообще-то и сенсоры имеются, вообще разница уменьшается.

А функцией от сенсорных нейронов (в общем виде если формулировать) понятием является?

Сомневаюсь, что нынешняя наука дает на этот вопрос положительный ответ.

формируются понятия, по-прежнему основанные исключительно на сенсорике (больше-то ничего и нет)

Абстракции, как и в целом вторая сигнальная система, не основаны "исключительно на сенсорике". И ровно так же на сенсорике не основаны нынешние ИИ-модели, так что не вполне понятно, зачем вы вообще о ней вспомнили.

Потому что прямая аналогия. Всё, что формируется внутри нейросети, так называемые "понятия", они же абстрактные обобщения это обобщения исключительно того, что приходит нейросети на вход. У неё больше ничего и нет, она не оперирует никакими другими данными. Мозгу на вход приходят сенсорные данные, нейросети - входные токены.

Значит ли это, что если засунуть в робота нейросеть нынешнего поколения, то она будет думать, как человек, усваивая сенсорные данные?

Не думаю, но я не очень хорошо представляю себе как происходит обучение у роботов и на каком этапе там языковая модель подключается. Вроде бы там это совсем разные системы с разной частотой работающие. Наверное и реализации разные есть.

Всё, что формируется внутри нейросети, так называемые "понятия", они же абстрактные обобщения это обобщения исключительно того, что приходит нейросети на вход.

Внутри нейросети - да. Но я не очень понимаю реальный смысл этого утверждения применительно к головному мозгу (равно как и в целом его практическую ценность), оно возникновение и работу второй сигнальной системы не объясняет вот вообще никак. Ну давайте скажем, что вот у вас "на входе" газопылевое облако, на выходе - нынешняя цивилизация. В ней "нет ничего, кроме газопылевого облака". Верно? Если строить аналогию, как ее строите вы - да. Продуктивно ли в контексте обсуждения? Очевидно, нет.

Не пойму какая связь с газопылевым облаком. Там эволюционное развитие, внутри нейросетей (биологических или искусственных) - потоки данных. Да, мозг еще и меняет свою структуру (хотя это в чём-то аналогично изменениям весов), но синаптические связи вполне себе аналогичны искусственным. Хоть головной мозг новорожденного это скорее уже предобученная за счёт эволюции нейросеть, предрасположенная к обучению в том числе лингвистическому, но конкретной семантической информацией она наполняется только за счёт поступления сигналов от сенсорных нейронов, как и языковые модели. В чём аналогия некорректна?

Человеческий мозг, на входе, как вы говорите, имея "только сенсорную информацию", на выходе генерирует новые понятия, к сенсорной информации отношения не имеющие. LLM-модели подобным свойством не обладают (или, если хотите, никак его не проявляют).

Когда у вас LLM на основании исключительно сенсорной информации выдаст законы Ньютона, давайте продолжим разговор, что процессы там "аналогичны".

у вас "на входе" газопылевое облако, на выходе - нынешняя цивилизация. В ней "нет ничего, кроме газопылевого облака".

И ещё десятка миллиардиков лет!

Не факт что мозг сенсорику обрабатывает тупо только через статистику. Но наверное и llm можно развить через умение в теорию категорий

Вот когда вы в нейронную сеть погрузите сенсорику (причём она у человека занимает подавляющее большинство нейронов) и построите отображение из слов в сенсорные функции (то есть собственно семантическую функцию), тогда всё это и заработает.

Я не против ИИ в принципе. Я просто считаю, что ЛЛМ - это шаг в ошибочном направлении.

Уверены что внутри мозга собаки нет собачьих слов?

Уверен по целому ряду причин. Например, я и внутри своего-то мозга не все понятия могу выразить словами. А иногда бывает, что даже слово есть, но его забыл.

Это всем знакомо. Но это выражается лишь в том, что нас бесит состояние, когда мы какую то сущность известную нам вынуждены описывать десятком или даже сотней других слов,вместо одного которое забыли. Любой пример с забытым именем человека или фамилией как раз про это. Мне кажется что нету мыслей без слов. По сути это узелки, слова человеческие это алиасы этих узелков, даже у младенца есть уже узелки а потом начинается процесс увеличения их количества и всякая индексация ... Упрощённо конечно )

У человека просто много мыслей крутится во второй сигнальной системе и в таком виде легко доступно интроспекции. Но основная масса всё-таки в первой. Например, чтобы точно описать своё отношение к какому-либо человеку, потребуется писательский талант, и то результат будет неполным. В то время как само отношение доступно для ума мгновенно. Или какой-нибудь вкус или запах. Если вам дать попробовать незнакомую ягоду, вы другую такую же легко узнаете, хотя словами вкус её не сможете описать.

Некоторые слова обозначают сами себя (например, числа и прочие математические объекты), и мысли о них в силу этого привязаны к словам. Но таких слов немного в общем словаре.

я и внутри своего-то мозга не все понятия могу выразить словами.

Просто там не слова, а /образы/!

Вот кстати тут принципиальная разница между языковой моделью и человеком, человек может оперировать понятиями для которых у него еще нет слов, то есть в языке может не быть отдельных слов для голубого и синего, но при этом человек отличит голубой от синего: если перед ним например положить три карточки (две голубые и одну синюю), объяснить что перед ним две голубые карточки и одна синяя и попросить выбрать синюю, то человек с этим справится. А вот языковая модель ограничена исключительно понятиями языка на котором обучалась, и если в этом языке нет разницы между голубым и синим, то её не будет и для модели.

Из чего такой вывод? Последние работы по интерпретируемости показали, что в глубоких слоях активации отдельных нейронов включают разные свойства, например, конкретный географический объект, понятие ошибок в широком смысле, грамматические конструкции. На этих уровнях не происходит оперирования словесными конструкциями, в них потом преобразуется уже вывод.

На этих уровнях не происходит оперирования словесными конструкциями, в них потом преобразуется уже вывод.

Остается открытым вопрос, сможет ли языковая модель корректно синтезировать словесное понятие для нового для неё явления, которое никаким образом прежде не встречалось в обучающей выборке. Понять это можно пожалуй только обучив модель на каком-то небольшом или мертвом языке, а потом придумать задачки на вывод понятий и посмотреть как она с ними справится.

Слишком нечёткая формулировка и эксперимент вряд ли возможен. В модели по сути столько понятий сколько точек в эмбеддинг-пространстве. Очень малое их подмножество можно привязать к словам. В одном вот согласен, модель научили рассуждать словами. Появился скрытый блок для внутренних рассуждений, но и там модель запаковывает своё огромное пространство эмбеддингов в языковые токены, чтобы исследователям удобнее и понятнее было, чем там модель занимается. Но вот эффективно ли это? Может было бы лучше ей не только очередной токен прогонять через коррекции в эмбеддинг-пространстве в трансформере, сводя его всё равно к словам, может лучше бы чтобы мыслила себе в этом пространстве как-то и очередные точки в нём строила. Там ведь могли бы быть не только словесные, но и визуальные, звуковые токены, может быть пространственные задачки бы получше решались.

А синекдоха то!? Синекдоха отвечания внутре есть?

Мы по мудрому наущению нашего руководства ровно это и делаем - как только выйдет новая модель или подход - бежим на себе тестировать. И пока я повторю свое эмпирическое правило: если нечто удалось успешно автоматизировать LLM - то это или преобразование текста, или вам не важен результат. Перевести скрипт на Perl в скрипт на питоне - отлично! Посмотреть на код и сказать какие corner-case пропущены - хорошо (хотя иногда фантазирует, но в рамках разумного). Изменить конкретную функцию под четко заданную инструкцию - тоже нормально. Реализовать в заданном месте конкретный алгоритм - да запросто! А вот инженерные задачи - провально, и без значительных улучшений. Последний пример - агентская система пишет тесты. Что-то у нее не получается. "Ага," - говорит она - "может быть у нас тесты кривые, сейчас я запущу реальный сервис и проверю на нем - может быть ошибки не будет". Запускает через доступ к командной строке сервис - и проверяет: ошибка есть. Начинает исправлять. Забывает что сервис все еще выполняется. Запускает компиляцию - компиляция падает из-за того что занят .exe файл. LLM этого не понимает - откатывает свое последнее изменение. Все равно не компилируется. Дальше LLM переходит в "бесеркер mode" и начинает крушить проект направо и налево... И это нельзя исправить волшебным промтом, или еще одной LLM сверху! Это отражает полное непонимание картины мира вокруг. Еще раз повторюсь - LLM сегодня это дошкольник. Он вам рисует на бумаге каляку-маляку и на серьезных щах рассказывает: "Это - киса. Вот у кисы глазки". И он сам в это верит! Только от того что он за папой-мамой механически выучил тыкать в бумагу и повторять "тут у кисы хвостик" - хвостик на листочке не появляется. Нужна другая ступень развития чтобы перейти от слов к деятельности...

>Запускает компиляцию - компиляция падает из-за того что занят .exe
А в моем случае убивает таски по id и нормально запускает для тестирования. Я понимаю, что у разных агентов для разных LLM по разному. И в остальном я согласен, нужен глаз да глаз за этими кодо_бредо_генераторами. Но иногда они вполне справляются с полученными заданиями.

Забывает что сервис все еще выполняется. Запускает компиляцию - компиляция падает из-за того что занят .exe файл. LLM этого не понимает - откатывает свое последнее изменение. Все равно не компилируется. Дальше LLM переходит в "бесеркер mode" и начинает крушить проект направо и налево... И это нельзя исправить волшебным промтом, или еще одной LLM сверху!  ... Это отражает полное непонимание картины мира вокруг.

У ИИ вообще плохое понимание времени. От RNN ушли ради производительности, а наш мозг как раз работает с временнЫми паттернами очень активно. Но я бы не драматизировал, приводя это к "непониманию картины мира". Если человеку стирать память и подсовывать листик с текстом, чуть меняющимся, он тоже не очень в теме будет. Думаю, с этим тоже разберутся или внешней обвязкой, таймстемпами какими-то, сменой архитектуры может даже. Но даже текущие модели обучают, подсовывают напоминалки что было до, какая активная задача и они уже получше справляются. Пока, думаю, будет решаться улучшением агентской обвязки, потом может что-то в архитектуре улучшат.

Если человеку стирать память и подсовывать листик с текстом, чуть меняющимся,

то получится неплохое кино!

Чудеса.

Roocode с бесплатной моделью через OpenRouter при модификациях моего FastAPI приложения пытается его запустить. Увидев, что порт занят, пишет, что приложение уже запущено и он надеется, что у меня включен reload. И запускает curl для проверки, что там возвращается, чтобы использовать это для приведения в соответствие React.

Изменить конкретную функцию под четко заданную инструкцию

Ну да, ну да...

может быть ошибки не будет

Ну точно джун.

Второе - я опять же, лично, наблюдал как два агента в цикле прожигают токены с нулевым КПД.

Мне вот стало интересно, задавался ли вообще кто-то вопросом существует ли что-то вроде "проблемы останова" в контексте взаимодействия агентов, построенных на основе генеративных языковых моделей?

Как-то мне кажется что с этим будет глухо. То есть, остановить принудительно-то их всегда можно. А вот доказать что они за конечное количество шагов окажутся в одном из состояний, отмеченных как терминальное - вряд ли.

Кстати, с ИИ-агентами мы интересным образом шагнули назад во времени в смысле построения надежной системы из принципиально ненадежных компонентов. Проблема как-бы всегда была в фоне рядом с нами - но мы в нормальных компьютерах ее игнорируем примерно с перехода на транзиторы, и тем более на СБИС. Потому что вероятность случайного сбоя процессора - один на дикие триллионы тактов/операций. А в случае с LLM мы опять оказываемся по вероятности сбоя - во временах теплого лампового ENIAC или даже релейного COLOSSUS... И парадигма программирования (и вообще использования компьютера) тогда была совсем другая!

экспоненциальный рост кончился, революция машин на неопределенное время откладывается!...

А я всегда говорил: главное счастье в жизни — это возможность выйти на руины, покачать головой, и, назидательно делая пальцем, произнести: «А я ведь вас предупреждал...»

Назовите фундаментальную причину,почему это кардинально не улучшится в ближайшие полгода, год? Может эта причина такая что вообще никогда не позволит улучшить?

Не совсем очевидно -- у него весь рой крутился на ноутбуке? Это же что же там за ноутбук такой?
Если он делал это удаленно -- то как, учитывая, что на самолетах интернет есть не всегда, и не то чтобы очень хороший?
Короче, вопросов больше чем ответов.

на xing такой бред не пишут

Самолет, как я понял, частный, а значит там Старлинк есть или аналог. Рой он использовал в claude code, в облаках, раз в статье он упоминается.

А что с агентами нынче?
Я могу сказать - Эй, нейроагент - поставь мне на мой комп c виндой GTK? (Например).
А то я как-то стал ставить, но умучился и бросил.

Ну на такое я не готов!

Я не пробовал именно GTK, но CLI агент, когда попросил его написать 4-килобайтную демку на Си, просил хотя бы путь к компилятору ему дать. Я сказал "сам ищи", он просканировал "Program Files" и нашёл какую-то старую студию, написал и скомпилировал. Правда в процессе размышлений чертыхался от ошибок компиляции (буквально). Но всё получилось, с использованием системных 3d-библиотек, правда, размер которых, естественно, отдельно считать надо.

Не, ну было бы интересно увидеть все это на каком-то простом примере. Например, калькулятор. Или какой-то "Блокнот". От идеи (некий первый запрос от человека) до реализации. Нейронки можно подключить к тому же гитхабу, но как их заставить сотрудничать да еще и с разными ролями?

Нейронки помогают, но за ними приходится контролировать будь здоров.

И да - Антропик сжигает кредиты будь здоров. А Дипсик даёт +- схожее качество за приемлимый прайс.

Согласен, будущее уже наступило, осталось только перепробовать все существующие модели и найти ту самую, которая работает …

У вас всего 4 модели по сути на выбор: Sonnet/Opus, GTP5, Grok, DeepSeek.
Нет больше достойных "существующих моделей", чтобы прямо выбирать и ломать голову.

Не совсем согласен с Вашим утверждением, поскольку есть еще семейство Qwen.

На простом примере: Qwen3-Coder буквально за минут 15 смог реализовать (как бы так сказать, мм) локальный ускоритель одного известного видеохостинга. Написано на Go, без использования сторонних библиотек.

Да, забыл про Qwen3, но отзывы среди разработчиков о нем так себе (судя по тредам на reddit).

Квен реально так себе, зато он полностью официально халявный, и из лимитов только 4к запросов/день. У опенроутера, напомню, только 1к запросов/день, и то некоторые провайдеры ставят свои лимиты поверх опенроутерских (привет, Chutes).

GLM 4.5. Даже GLM 4.5 Air очень даже.

Разумеется, в облаке, не на домашней 3090.

Кто вам мешает купить подписку, вместо платных токенов? Для меня выходит выгоднее от 10 раз. Сжигаю токенов на 2000$ в месяц примерно (+-300$) (это замеряется), а плачу за подписку 200$.

Подписка-подпиской, но у опенроутера нету подписок, а Антропик банит все аккаунты, замеченные в логине из подсанкционных стран.

Впервые слышу про баны, учитывая что знаю порядка 20-ти человек работающих в России с claude code (естевственно все под vpn)

Там бан дают именно тогда, когда ты случайно зашёл без VPN :)

Просто мы живем в мире, когда человек садится в самолет презентовать несуществующий продукт через 6 часов и гордится этим.

Да, вспомнил мастера керамики из Монголии, тарелки которого хотят украсть.

Даже Гугл ничего не нашёл

Если спросите меня подскажу, я не гугл, я добрый.

Я правильно понял, что вы про Билл Гейтса?

НЛО прилетело и опубликовало эту надпись здесь

Как бы радоваться особо не стоит, так как агентный кодинг - попытка подсократить количество вакансий/ работы на разработку, причём не немного как в случае вайб кодинга, а довольно значительно.

Не исключено, что просто произойдёт то, что уже происходило на наших глазах. Софт станет ещё более красивым, функциональным и дружественным пользователю, но при этом и гораздо более сложным, забагованным и непонятным. И вот, снова нужна толпа людей чтобы это всё обслуживать, проверять за машинами, вносить правки. И будут команды, ответственные за каждый небольшой кусочек функциональности. Потому что такой подход даст +0,003% к многомиллионной выручке, позволит ещё быстрее выпускать релизы и не отстать от конкурентов в борьбе за аудиторию

Ох уж эти западные аббревиатуры. По-русски (ну почти) это — ИИ-сокодинг. Просто и понятно. Если привлечено много ИИ, то это — ИИ-мультикодинг. Звучит и просто и универсально.

ии-ко-ко-кодинг

ИИ-сукодинг

Или ИИ-сопрограммирование.

Где-то я уже все такое читал. О том, какие были ожидания от COBOL, ведь в нем код пишется обычным английским языком, тебе не нужно быть программистом, изучавшим ассемблер, достаточно на обычном человеческом языке сформулировать свои мысли!

Или об ожиданиях от SQL. Как любой бухгалтер теперь сможет сам запросить список людей с з/п>... и отсортировать по KPI на чистейшем английском, наконец-то будут не нужны программисты чтобы работать с данными!

Никогда такого не было - и вот опять :-)

а что с SQL не так?)))
Есть какие-то ограничение по бухгалтерам?

Основная проблема - сгенерённый код, если содержит какие то слабоуловимые логические ошибки, очень плохо воспринимаемы для последующего анализа и тем более коррекции, Если с малыми сгенерированного ИИ порциями кода при вайб коддипнге это ещё хоть как-то поправимо, то для сложных и объемных проектов - это просто беда-беда. А поскольку уровень программистов будет неизбежно пдать, то чем дальше, тем сложнее будет такое довести до ума, в случае чего, и не факт. что ИИ тут особо поможет

Проблема почти полностью решается покрытием e2e тестами с широкими сценариями. Генерировать код через ИИ (без контроля) и не покрывать его тестами – выстрел в голову на первых же этапах.

Чтобы покрыть код тестами, нужно знать ожидаемое поведение. Соответственно, нужно либо сначала потребовать от ИИ написать пространное ТЗ по желаемому продукту, либо написать его самому.

Все верно. Все начинается с ТЗ и планирования разработки. ТЗ пишите вручую более общее, далее уточняете с ИИ, далее уже просите ИИ создать детальный план работ (спланировать) и записать в файл. И вот уже по этому файлу просите писать тесты одновременно с выполнением этой большой таски. Так вы увеличиваете шансы рабочего кода и точность в разы.

В теории так и нужно. Но хватит ли у ИИ контекста на всё?

Контекст зависит от модели (у Gemini большой контекст, у Sonnet 1m тоже), но в целом декомпозиция + в условном claude code есть compact, который суммаризирует прошлую беседу.

Например для моего pet-project Gemini придумывает ТЗ по моим хотелкам, потом создаем таски в подпапке с описанием того что нужно сделать, тесты и какие они должны покрывать кейсы, документация архитектуры системы (чтобы чат-бот Gemini в следующем чате сразу понимала что к чему).

Вот условный отрывок из моего CLAUDE.md

Project Structure

2 │ - Documentation is located in the @docs/ directory
3 │ - Using uv as the package manager
4 │
5 │ ## Task Management
6 │ - Стратегические задачи хранятся в @docs/05_ROADMAP.md — глобальные задачи.
7 │ - Тактические задачи хранятся в @TODO.md - архитектурные улучшения и технические задачи
8 │ - После завершения задачи помечаются выполненными (✅) в TODO.md
9 │ - Обновляй статус в процессе работы - отслеживай прогресс по каждой задаче
10 │
11 │ ## Core Programming Principles (из @docs/04_REQUIREMENTS/README.md)
12 │ 1. Fail-Fast - валидация на входе, исключения вместо null/undefined
13 │ 2. Явное лучше неявного - все зависимости явно переданы
14 │ 3. No Legacy, No Fallbacks, No Backward compatibility, No versioning
15 │ 4. Scalability by Design - "Как это будет работать для 100x данных?"

Правда все равно приходиться регулярно бить по рукам, потому что Claude иногда забивает на правила.

Мы не про подход вайбкодинга говорим. Не у одной модели на такое не хватит контекста. В том и секрет, что нужно уметь работать с инструментами и применять Context Engineering. Не нужен большой контекст. Нужно детальное планирование и подход Explore → Plan → Code → Commit и так итерационно.

Об том и речь, что нужно либо заранее настолько хорошо расписать ТЗ, что в итоге и использование хоть рой, хоть вайбкодинга это уже такое себе, и можно многие части и ручками самому написать, раз так все подробно и четко, либо же если не так подробно и четко, то и результат будет уже не такой уж и внятный и от любой схемы эксплуатации ИИ, выходит. Так что, тут ещё пока большой вопрос, насколько стоит доверять самому ТЗ от ИИ, чтобы ему же потом доверить анализ и тест того что он наваяет. Пока мой личный опыт приводит к тому, что нужно многое из сделанного немедленно проверять самому, и желательно погурзившись в написанное хотя бы поверхностно. И после каждой итерации ещё и чистить надо код - дай боже, ибо если оставить как есть, там столько левого и неиспользуемого остается, хоть как ты не расписывай в команды об этом LLM.
Но я и не великий спец, и пока моя область использования ИИ в кодинге - это скорее вспомогательная. И то я вижу, что стремительно деградирую как специалист, прямо пропорционально вовлеченности в процесс ИИ. И все равно и такой скромный мой опыт как то не сильно пока говорит, что есть уже чудесные технологии, которые прямо всё по моему желанию сделают (особенно учитывая, что желание надо расписывать с головной болью в течении полудня и мучительно стараясь впихнуть все что может и не может произойти в промпт)

Лучше такое ТЗ писать на формализируемом языке, который минимально можно понять неоднозначно.

Это будет тогда не ТЗ, а решение задачи на DSL.

Лучше всего на rust, но python тоже сойдёт...

Прикольно. Теперь не просто токены к LLM продают или одиночных агентов, а целые рои. Скоро оркестраторов отдельно будут продавать.
Хотя, когда начали открываться всякие фонды "этичного ИИ", стало понятно, что эту область инфоциганство захватывать будет. Почва-то для фантазий идеальная: мало кто из неспециалистов понимает как LLM работают, а продаваны из каждого утюга вещают про их перспективность и необходимость.

Kubernetes для ИИ как идея для стартапа. /s

Есть у историков такое понятие - непреднамеренное свидетельство. Это когда человек вещает об одном, но внезапно в его речи проскальзывают части, которые явно противоречат тому, что он проталкивает. И вот это свидетельство, скорее всего - правда.

Во время недавнего трансатлантического перелёта Марк Раддок, предприниматель-резидент в GALLOS Technologies, решил задействовать свою команду ИИ-агентов. На высоте 34 тысяч футов над Атлантикой у него оставалось меньше 48 часов до важнейшей демонстрации продукта для ключевого клиента, а его программная платформа всё ещё была не готова.

Т.е. предприниматель не смог правильно организовать работу, чтобы важнейшая демонстрация продукта была готова? Я бы подумал, прежде чем у него что-то заказывать. И еще:

К тому моменту, как самолёт пересёк Исландию, его «рой Claude Code», как он позже рассказал в интервью VentureBeat, создал более 50 React-компонентов, набор макетов API для трёх корпоративных интеграций и полноценный административный интерфейс.

Я не совсем понял, где он запускал рой агентов и как общался с системой, находясь в полете? Да, интернет сейчас имеется даже на самолетах, но отлаживать что-то онлайн в самолете - ну такая себе идея.

Вам тоже смешно читать, как люди никогда агентное программирование не использовавшие, рассказывают про него людям использующим его каждый день? Как третьиклассник, делающий доклад учителю про круговорот воды в природе. И учитель кивает ему, мол как интересно.

И нет, рой агентов не работает из-за потери фокуса разработчика.

Жду обсуждения методов проектирования программ ...

О, чудный новый мир!

Прошел год (полтора? два?), как сказали: "Джуны теперь не нужны!"

Прошло полгода(?), как пошли статьи от людей, которые, не будучи погроммистами, вайбкодят игры, пишут "Это круто!". И их плюсуют.

Вчера промелькнула новость, что сеньоры нынче - уже не торт те сеньоры, а почти "бэби-ситтеры", только вместо джунов пасут стада ИИ-агентов, а сами не кодят.

Сегодня мы уже читаем, что вайбкодинг мертв (шта? в младенчестве скончался?!!), и рулят уже какие-то "рои".

Не знаю, как вам, но все это начинает напоминать какой-то сюр. Больше статьей про ИИ богу маркетинга ИИ. Чем безумнее, тем лучше!

Ожидаю коллапс Хабра. Итак уже читать невозможно, почти каждая первая новость со словом "ИИ". Когда статьи про тест батареек (да чего угодно, на самом деле!) и прочие "JS не нужен" читаются как глоток свежего воздуха среди всего этого "...-ИИ-ИИ-ИИ-...".

вы начали понимать, как работает хайпономика

Тише-тише. БелкиИстерички.jpg. Не так всё плохо, чтобы паниковать. /s

Первый тейк: а вы уверены, что джуны теперь нужны? Вы на рынок труда когда активно заходили? Там всё печально. Не совсем ужас-ужас, но явно давление от ИИ есть.

Второй тейк: в новой теме люди не определились с понятиями. Зачем-то окрасили вайб-кодинг чем то плохим, и ищут новые слова. Что рой агентов, что вайб-кодинг - это одно и тоже. Не надо так кричать. Никто не кончался.

Третий тейк: вы же можете себе ограничить материал для чтения. То, что каждая вторая статья про ИИ на Хабре и показывает, что это не совсем хайп (IMHO). Поживём - увидим.

Тссс! Надежкин то чем вас не устроил :)

Вы еще в хардварную часть не опускались, которую тут порой постят. Я порой нахожу и думаю: я дурак или окружающие меня люди?

Есть взгляд с другой стороны. Сейчас появляется скрытый дефицит программистов. Он скрытый не потому что кто-то заговор устроил. Происходит промышленная революция, если раньше можно было сделать сложный мотор и его продать, то сейчас надо сделать мотор, что стало неожиданно просто, и продать его с софтом управления. Все ведь помнят, что предыдущие лидеры капитализации типа Дженерал Моторс были смещены софтовыми компаниями, а эппл снова стал великим когда запустил программные платформы?

Сейчас есть много гипотетических проектов, за которые не берутся по одной причине - некому выполнять программную часть. Программисты либо слишком дорогие, либо не умеют. ИИ потенциально решит проблему. И сейчас реально решает, пока в очень ограниченных масштабах. Вот тут и прячется скрытый спрос на программистов, удовлетворять которому некому. Кроме ИИ.

есть много гипотетических проектов, за которые не берутся по одной причине - некому выполнять программную часть

Можно примеры таких проектов? Спрашиваю без сарказма, действительно интересно.

У любого производителя оборудования любого типа пачка задумок. Простой уровенный пост потенциально это вебсайт, аналитика, интеграция, экспорт.

Программисты либо слишком дорогие, либо не умеют. ИИ потенциально решит проблему. 

Тут ключевое слово “потенциально”.

Те программисты, которые не умеют – они тоже потенциально решат проблему. Кстати, с большей вероятностью, чем ИИ, потому что Коран им не запрещает научиться.

У меня есть некоторая практика, подтверждающая моё мнение. Это не абсолютно во всех случаях, но опытный программист может не имкть компетенций в какой то узкой области, например джавист на питоне не умеет, а с ИИ вполне. ИИ сейчас хорошо справляется с тактическими задачами, с которыми как раз человек может справляться плохо, а вот с стратегическими ИИ не справляется пока, но в них разбирается человек. Так и пооучается, что разработчик знает что ему надо, знает как надо, но например не имеет времени и знаний на кодинг. ИИ это добавляет.

Да, программисты которые учатся становятся дорогими программистами. См.выше.

Формально перевести алгоритм с джавы на питон – это не решение задачи, а простая трансляция (транспиляция). А даже учесть при этом нюансы среды (например, особенности сборки мусора или представления чисел в питоне по сравнению с джавой) современный ИИ (как, впрочем, и дешёвый программист) не может.

Вы уверены во второй части сказанного? Давно проводили эксперимент такой? "представления чисел в питоне по сравнению с джавой" – более чем уверен, это вообще не проблема для хороших моделей, типа Opus.

Есть примеры?

Как постоянно работающий с моделями Sonnet/Opus на нескольких языках, не замечал, чтобы они не знали особенности конткретного языка.
Может развернете мысль "представления чисел в питоне по сравнению с джавой", в чем они могут ошибиться? Можно ведь эксперимент провести. Модели у меня под рукой.

А я, например, замечал, что даже на простейшие прямые вопросы, например:

Какой результат выполнения будет у программы на Фортране:

n = 0

do r = 1e9, 2e9

  n = n+1

end do

print *, n

ни одна модель не может ответить правильно, потому что для неё что Фортран, что Си – один хрен, она исходит из семантической эквивалентности конструкций с похожим синтаксисом. Только всякой наукообразной пурги могут нагонять в рассуждениях.

Мы же обсуждаем не то, как модель результат предсказывает, а то, как она код пишет, изначально зная особенности языка и избегая ошибки.

Сейчас спросил у Sonnet 4:

Давайте разберем этот цикл на Фортране пошагово.
В этом коде:

n инициализируется нулем
Цикл do с переменной r идет от 1e9 до 2e9
По умолчанию в Фортране, когда не указан шаг, используется шаг 1
На каждой итерации n увеличивается на 1

Цикл эквивалентен:
fortrando r = 1000000000, 2000000000, 1
Количество итераций будет: (2000000000 - 1000000000) / 1 + 1 = 1000000001
Однако, здесь есть важный нюанс! В Фортране переменные цикла и счетчики по умолчанию имеют тип INTEGER, который обычно 32-битный. Максимальное значение для 32-битного целого числа со знаком составляет 2,147,483,647.
Поскольку значение n должно достичь 1,000,000,001, что меньше максимума для 32-битного целого, программа выполнится корректно.
Результат: 1000000001
Примечание: Если бы верхняя граница цикла была больше (например, 3e9), то могло бы произойти переполнение переменной цикла r, что привело бы к некорректному поведению программы.


Ну эта даже до самых основ не дошла, ей что 2000000000.0 - 1000000000.0, что 2000000000 - 1000000000 – один хрен. Большинство ломаются дальше.

Собственно контекст диалога не об этом. Не удивительно, что она плохо предсказывает результат, она для этого и не предназначена.

А как можно писать код, не предсказывая его результат? Хоть ты кожаный, хоть железный.

Не, ну можно, конечно, формально применять всякие доказательные шаги преобразования, но это не про ЛЛМ история.

LLM скорее предсказывает поведение и логику кода, нежели результат. Простой пример: на большом фронтендном коде на JS, она понятия не будет иметь никакого о точном результате, потому как этот точный результат зависит от многих факторов поведения пользователя и он динамичен (сложная форма, к примеру). Но код на js + ts для react будет выдан идеальный, рабочий (и там будет далеко не один файл на выходе).
Вывод: им не нужно знать точный результат, чтобы хорошо писать код.

Эм. Я не понял. А вы можете предсказать результат вычеслений В УМЕ? или запустите программу и проверите результат? Агентная система как раз и может запустить и посмотреть. А дальше порассуждать об этом.

Вы можете предсказать результат выполнения бесконечного цикла в уме, или будете его запускать?

Вообще-то программирование и заключается в предсказании в уме.

LLM тоже может анализировать результат бесконечного цикла. Как и вы и я. Вот только ВСЕ могут ошибиться:

Пустой цикл может быть вырезан на этапе компиляции. Он может быть пройден предсказателем на x86, или переполнен, если там цикл вида `i=1; while(i++) {}` и пройден за десятые доли секунды.

Это никак не отменяет того, что LLM оказывает мне конкуренцию на рынке труда.

Могу поверить, но мне - не оказывает.

public class Test {
    public static void main(String[] args) {
        int a = 2_000_000_000;
        int b = 2;
        int c = a * b; 
        System.out.println(c);
    }
}

Взял за основу код на Java, и сказал переписать код на Python в другой файл рядом:

def main():
    a = 2_000_000_000
    b = 2
    c = a * b
    print(c)

if __name__ == "__main__":
    main()

Модель Sonnet 4. Как видите, модель поняла, что можно допустить ошибку переполнения.

Вы сами-то попробуйте запустить эти две программы.

-294967296 Java
4000000000 Python

Верно. Вот и весь автоматический перевод.

Да, но модель сказала, что здесь будет момент с переполнением, а я казал "сделай в лоб". Поэтому числа были перенесы без учета этого.
Если правильно поставить задачу "сделай с учетом особенностей языка при работе с числами", момент изначально будет учтен в результате.
Go/JS имет такие же особенности с числами, что и Java/Python, поэтому я знаю поведение этих моделей.

Ну так роль человека в том чтобы знать где кто как может налажать. В реальных проектах проверено. Знание предметной области сильно упрощает.

После просьбы перести, учитывая ей сказанное замечание, результат:

def main():
    a = 2_000_000_000
    b = 2
    c = a * b
    # Эмулируем 32-битное переполнение int как в Java
    c = ((c + 2**31) % 2**32) - 2**31
    print(c)

if __name__ == "__main__":
    main()

Важно понимать: модели сами говорят, что есть ошибки, а исправлять их или нет, это на усмотрение пользователя, потому что намерение пользователя может быть в переносе чисел как есть. Насколько я это понимаю исходя из опыта работы с ними. Важно что она сама сказала об этом, что и было нужно.

Стоит конкретная задача перевести код из трёх операторов, печатающий конкретное число (заметьте, даже не я её придумал). Поставив эту задачу перед ЛЛМ, вы получили неверный ответ и банальное рассуждение на тему. Мне сложно понять, как это могло бы помочь в реальной работе.

Смотрите, в реальной работе вы как разрботчик будете знать об этом и сами модель предупредите, чтобы учитывала это. Вы же разработчик. Это называется Context Engineering и вот этот подход как раз и используют настоящие разработчики при использовании AI в работе.

В том и отличие разработчиков от вайб-кодеров.

Стоит конкретная задача перевести код из трёх операторов, печатающий конкретное число

Нет, это вы так трактуете задачу. Задача стоит ''преобразовать код на одном языке в код на другом языке", а какой результат будет выдавать этот код - надо оговаривать специально. Модель в принципе не может знать цели этого преобразования, то ли мы хотим получать такой же результат, то ли мы хотим получить такой же (логически) код и сравнить результаты на разных языках.

Одинаковый логически код имеет одинаковый результат.

А вот не факт. Зависит от того, что мы понимаем под "одинаковый логически": выполняющий одни и те же операции (так, как они определены в языке) или выполняющий операции с одним и тем же результатом (потенциально - разными языковыми средствами). И да, я почти уверен, что каждому из вас будет очевидно, что одно из этих пониманий не может быть верным, но вы по-разному определите, какое именно.

Мы сейчас говорим о том, что визуально похожий синтаксис в разных языках имеет разную семантику. Но синтаксис не может быть одинаковым, так как в любом случае это синтаксис в разных языках. Поэтому вам будет очень сложно формально определить вторую точку зрения, даже если не принимать во внимание её прагматическую бессмысленность (так как код пишется ради своего результата).

Я имел ввиду другое. Программист на java, не умеющий программировать на питоне, с помощью ии сможет написать программу на питоне. Не перевести с java, а написать новую. Он же сможет сделать это на rust, ruby, и на куче других языков. Просто потому что владеет смежными знаниями и опытом. Если он к тому же разбирается и в предметной области - ещё лучше.

Я сейчас пользуюсь курсором, единственная адекватная модель это cloude-4-sonet, я devops, и даже у меня дыбом волосы встают от того что он лупит, на адекватный ui с tailwild css 4 на svelte 5, у меня ушел месяц... И я его раза три четыре рефакторил - и это еще без бэка, у него есть свод правил проекта, и на какие-то он кладет хер, пока он чет делает надо каждое его действие проверять, искать самому имена функции, смотреть че он пытаеися придумать, по умолчанию он такую порнуху сделает, что икать будешь.

Попробуйте на Claude Code cli перейти, модель идентична а разница огромна. Cursor имеет свою надстройку над моделью, которая многое портит.

у соннета, как и у опуса с начала августа наблюдалась лютая деградация эффективности, о чем сами атропики скудно упомянули. При чем вас с утра могли попасться нормальные модели, а к вечеру дегродные, ломающие половину проекта. Соннет4 уже не тот.

Это пофиксили через неделю. Читайте официальный реддит. Проверено лично – модели вернулись в адекватное состояние, работаю ежедневно с ними. https://www.reddit.com/r/ClaudeAI/

Ммм, кичиться тем что ты как школьник делаешь описываешь дз на подоконнике во время перемены. Достойно инвестиций.

Сама концепция "агентов" была очевидна чуть ли не со второго дня использования ИИ. Где ты используешь не один общий ИИ для всего, но он все делает так себе, а набор отдельных "чатов". Думаю кто с этим постоянно работает быстро приходил к идее давать разные промты с наборами правил и целей разным "чатам с ИИ", чтоб каждый делал свою задачу независимо и со своим "виденьем", а потом собирать в общий "чат" для финальной отладки. И очевидно что было бы удобно это всё автоматизировать и развить до масштаба "каждой задаче по отдельному промту". По мне вершиной было бы использовать для разных целей вообще разные модели обученные на разных данных (так они будут легче, работать быстрее, но в рамках своих задач - не хуже).

Просто по мне это всё тот же вайбкодинг, просто с набором логичных доработок, а тут его как прям что-то супериновационное и прорывное подают, термины пафосные придумывают: "рой агетов" ух.

Чую я - кто то ищет инвесторов и нагоняет хайпа.
Вещь нужная, но по мне скорей эволюционная, чем революционная.

Ну то есть он сгенерировал фронт по контракту? Ничего себе, вот это технология 30 века.

Смотря на "лидера" ИИ в виде ChatGPT - такого будущего нам не надо.

Пробовал зарегать акк на почту со своего домена - ругается что свои домены не разрешены. Но ругается после ввода кода из письма с подтверждением! И никуда нельзя с этой страницы перейти дальше - только ввести код или перевыслать его можно. Ладно, подчистил данные браузера - зарегал на gmail-аккаунт.

Буквально сегодня восстанавливал забытый пароль от ChatGPT - и это тоже интересный квест, оказывается! Алгоритм стандартный - подтверждение сброса через код на почте. Но... Пароль сбрасывается не сразу, а через какое-то время!
Кроме того, код для входа в аккаунт присылают сразу после сброса, который потом ни где не запрашивают. После сброса просто переход на страницу входа (как раз с недосброшенным паролем).

В общем, крайне кривое поделие. Подозреваю, что код писал ИИ - уж очень неожиданные ошибки и проблемы в стандартных сценариях.

Скажу образно, когда вижу статьи о вайбкодинге и вот такую статью, перед глазами люди на улице со значками на лацкане пиджака "Хотите похудеть? Спросите меня как".
Вот прям один-к-одному.

Как ничего не делая, сделать так, чтобы за тебя всё сделал кто-то другой (на самом деле у тебя просто отняли деньги), а худеть (программировать) нужно всё-таки стараться самому.

насколько это бредово звучит не передать словами, но маркетинг огонь.

Ну все так или иначе сводится к качественному и прописанному ТЗ, где есть все, вплоть до настроек какой-нибудь кафки и детального сценария работы сервисов, их моделей, особенностей бизнеса , локальной логики и прочего. Но примерно этим всегда и занимались разработчики. Неплохо экономится время с кодированием изолированных вещей и наборов тестов, в остальном - честно говоря, непонятно как рой поможет на длинной дистанции.

Точно, тесты же еще!

Милое дело попросить его слазить в тестовую БД (спасибо MCP!), посмотреть что там, и на основании этого нагенерировать сложных тестов в т.ч. с граничными условиями. Руками задолбался описывать, какой выход ожидаю при таких-то входных параметрах.

А потом, в случае чего, и основные функции поправит, если, к примеру, при каких-то условиях ожидаемая ошибка не появилась.

Я смотрю в комментариях один сарказм, но статья заплюсована. Это магия ИИ?

"Блог компании ..."

Это корпоративные правила.

Во время недавнего трансатлантического перелёта Марк Раддок, предприниматель-резидент в GALLOS Technologies, решил задействовать свою команду ИИ-агентов. На высоте 34 тысяч футов над Атлантикой у него оставалось меньше 48 часов до важнейшей демонстрации продукта для ключевого клиента

У меня сестра во времена нашей юности закупала глянцевый журнал "Караван историй" и теперь у меня устойчивая аллергия на подобный стиль изложения. Я не знаю, как именно этот прием c созданием якоря через человечные детали подается и называется у них там на журфаках, но точно знаю, что троечники из каравана историй и venturebeat нифига не знают меры.

Это типичная американская статья, у них это стандарт. А этот "корован" был копией американского же Reader's digest, у меня мать выписывала

Такие "волшебные" статьи нужны чтобы инвесторы не забирали свои деньги.

А по показателям мне "понравилось" что новая gpt 5 дошла до уровня Claude opus, а тот поднялся аж на 2%. Стагнация? Неоткуда больше воровать данные?

Вайбкодинг мертв. На смену пришло агентное роевое программирование

Всё это фигня, агентное роевое программирование уже мертво, на смену пришли флотилии агентов! (когда ии-агенты управляют роями)

Короче нет времени объяснять, несите мне деньги, там разберёмся.

Ты такой, когда ещё даже ИИ не пробовал в деле (это я про себя: ещё ни разу в жизни не общался ни с одним ИИ ни по какому вопросу), а тебе говорят, что и вайб-кодинг уже умер.

Может не рыпаться и подождать, пока они все умрут?

А откуда приходят к нему эти агенты? Какая среда и продукт? Ко мне в Курсор никакие агенты сами не приходят :)

Статья - вода. Как говорит один известный чувак "шоу ме хе код!". Без этого, слова этого чела - просто ******. Я тоже могу сказать, что написал Фейсбук пока лежал на диване: этого никто никогда не проверит, потому что код я никому не покажу. Пусть покажет свой mcp сервер, конфигурацию агентов и результирующий код. А так - это просто хайп.

Но надо ж как-то того слона продавать!

Сначала продавали инструменты вайбкодинга, сейчас начали втюхивать супер пупер агентов. Хотя это изначально бред в квадрате и все патчи от ллм надо ревьювать человеку. Но эта неприятная правда всплывет потом, когда буря продаж стихнет и народ поймет, что его опять напарили.

Но к тому моменту будет получено финансирование и то что тов. Марк Раддок наговнокодил в самолёте будет переписано командой зомби-программистов с лупами. А если он не напишет работающий прототип вовремя, деньги получит конкурент.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Информация

Сайт
technokratos.com
Дата регистрации
Дата основания
2016
Численность
51–100 человек
Местоположение
Россия
Представитель
Егор Ярко