Он так же может декомпозировать задачу, развернуть доокер итд. А ещё по ощущениям хорошо ориентироваться в большом проекте, хоть он и читает код кусками и долго.
Для сравнения, была задача которую я сделал за 20 минут, особо не зная проект, а кодекс решил её почти за час если ближе к вайб кодингу уходить.
Решение кстати в разы лучше того что обычно предлагает какой нибудь gpt4o или о3.
В работе активно юзаю когда надо найти какую то логику, сущности, файлы или даже накидать догадки. Вот как ускорение анализа тема.
Они плохо осведомлены в этих темах на русском языке. Если ты пару суток по переписываешься то тебе надоест. Чтобы в 18+ общаться тебе нада через АПИ запросы кидать, ибо там проверка на контент отдельно, а еще лучше зафайтюнить немного, помимо промт инжиниринга системного.
Но самый лучший вариант, это собрать большой датасет и дообучить без лора напрямую какую нибудь из нейронок.
Это когда было то, сейчас смотрю по вакансиям требования дикие, на джуна на фронт и бек, как будто ты должен в космос корабли строить, а не сайты для бизнеса. Реального опыта 3х лет даже мало.
Уже видел ролики с генерацией мира в майне в реальном времени. Понятно пока бюджет не выделен, но уже видно какие то достижения. Как по мне было бы неплохо начать с малого, например генерация паркура) или дороги в гонках. Но пока мне кажется это выходит сильно дороже чем играть в готовые требовательные игры. Ибо норм нейронки текстовые в 24гб озу без квантования не влезают.
Тебе ничего не мешает дообучить понравившуюся модель. Одну генерировать вопросы для сбора информации другую для проектирования, и так далее, а потом их еще обьеденить через общий трансформер создав псевдо подобие MoE, просто чтобы они имели какие то представлентя на сколько вопрос раскрыт или еще что то на каждом из этапов. Я от части с тобой согласен, "размышляющие" Модели уже показывают результат намного лучше, благодаря дополнительной информации, будь то мысли на общем выходе как у deepseek и gemini?или внутри модели как у open ai. Но не суть. Разные подходы там дают не так много эффективности, по сравнению с наличием. А что мешает научить модель разделять этапы? Итерируя себя N раз суммируя k имея по мимо ролевых эмбедингов еще и сдвиг по этапам или доп вектор какой? Почти тот же эффект что если бы и обучить отдельно одну модель под разные этапы, хотя это позволит не раздувать модель на много агентов. Просто сам фактор что даже в реальной разработке люди имеют достаточно большое представление друг о друге и тот же бекендер сможет и поверстать, хоть и не всегда это применимо, но чем лучше они знают друг друга и работу тем слаженее все идет. Я для себя отметил, что пока нейронки не понимают в большем случае даже простые задачи, будь то о1, о3 или гемини 2.5 про. Как бы я хорошо контекст не пытался писать, бывало и такое что они долбились в глаза как обычно пытаясь поломать весь код, не понимая что причина в том что не хватало одной строчки. Из таких базовых примеров это адекватный бургер меню как у open ai без реакта, простое смещение блоков при раскрытии (в шахматном порядке всегда но открытый заниет все 12 колонок) , потом нейронку никакая нейронка написать не может вообще, все что отходит от шаблона на уровень среднего и выше тут уже нейронка не справляется. По мимо проблемы токенизации из за которого она вообще понятия не имеет о буквах, так есть вторая проблема это математика. А есть еще и звуки, ударения, хотя они уже в меньшей степени играют роль, только если не хотите чтобы она могла писать адекватные стихи. В общем я думаю не скоро нас заменят. Еще один фактор это плохие датасеты, а использование данных сгенерированных нейронками только останавливает развитие достаточно понимающих текст ИИ. Ну а так же что open ai режет мощности после выхода, чтобы удешевить, в том числе поймав уже достаточно хайпа релизит о3 которая хуже чем о1, разве что по знаниям превосходит. Кстати по опыту гемини в разы мощнее и умнее этой о3, с дипсиквми R1 и их ограниченными датасетами сравнивать нет смысла ( еще на v2 это было очень заметно, когда нейронка отвечала как чат бот шаблонами)
Так есть codex, от OpenAI, он может дебажить)
Он так же может декомпозировать задачу, развернуть доокер итд. А ещё по ощущениям хорошо ориентироваться в большом проекте, хоть он и читает код кусками и долго.
Для сравнения, была задача которую я сделал за 20 минут, особо не зная проект, а кодекс решил её почти за час если ближе к вайб кодингу уходить.
Решение кстати в разы лучше того что обычно предлагает какой нибудь gpt4o или о3.
В работе активно юзаю когда надо найти какую то логику, сущности, файлы или даже накидать догадки. Вот как ускорение анализа тема.
У меня плюс, был период что в течении месяца каждый час ловил КД на запросы. Бана не получал.
Возможно у него как раз пустой аккаунт и он очень жестко скакал по темам, но кто знает.
Есть такое. Пол проекта сношу когда с чистой головой возвращаюсь.
Они плохо осведомлены в этих темах на русском языке. Если ты пару суток по переписываешься то тебе надоест. Чтобы в 18+ общаться тебе нада через АПИ запросы кидать, ибо там проверка на контент отдельно, а еще лучше зафайтюнить немного, помимо промт инжиниринга системного.
Но самый лучший вариант, это собрать большой датасет и дообучить без лора напрямую какую нибудь из нейронок.
Ты сделал мой день
Ну верно, но для генеративных моделей все же требуются значительные мощности. Хотя все же для простого бота поддержки в банке я думаю джетсон пойдет
Это когда было то, сейчас смотрю по вакансиям требования дикие, на джуна на фронт и бек, как будто ты должен в космос корабли строить, а не сайты для бизнеса. Реального опыта 3х лет даже мало.
Уже видел ролики с генерацией мира в майне в реальном времени. Понятно пока бюджет не выделен, но уже видно какие то достижения. Как по мне было бы неплохо начать с малого, например генерация паркура) или дороги в гонках. Но пока мне кажется это выходит сильно дороже чем играть в готовые требовательные игры. Ибо норм нейронки текстовые в 24гб озу без квантования не влезают.
Тебе ничего не мешает дообучить понравившуюся модель. Одну генерировать вопросы для сбора информации другую для проектирования, и так далее, а потом их еще обьеденить через общий трансформер создав псевдо подобие MoE, просто чтобы они имели какие то представлентя на сколько вопрос раскрыт или еще что то на каждом из этапов. Я от части с тобой согласен, "размышляющие" Модели уже показывают результат намного лучше, благодаря дополнительной информации, будь то мысли на общем выходе как у deepseek и gemini?или внутри модели как у open ai. Но не суть. Разные подходы там дают не так много эффективности, по сравнению с наличием. А что мешает научить модель разделять этапы? Итерируя себя N раз суммируя k имея по мимо ролевых эмбедингов еще и сдвиг по этапам или доп вектор какой? Почти тот же эффект что если бы и обучить отдельно одну модель под разные этапы, хотя это позволит не раздувать модель на много агентов. Просто сам фактор что даже в реальной разработке люди имеют достаточно большое представление друг о друге и тот же бекендер сможет и поверстать, хоть и не всегда это применимо, но чем лучше они знают друг друга и работу тем слаженее все идет. Я для себя отметил, что пока нейронки не понимают в большем случае даже простые задачи, будь то о1, о3 или гемини 2.5 про. Как бы я хорошо контекст не пытался писать, бывало и такое что они долбились в глаза как обычно пытаясь поломать весь код, не понимая что причина в том что не хватало одной строчки. Из таких базовых примеров это адекватный бургер меню как у open ai без реакта, простое смещение блоков при раскрытии (в шахматном порядке всегда но открытый заниет все 12 колонок) , потом нейронку никакая нейронка написать не может вообще, все что отходит от шаблона на уровень среднего и выше тут уже нейронка не справляется. По мимо проблемы токенизации из за которого она вообще понятия не имеет о буквах, так есть вторая проблема это математика. А есть еще и звуки, ударения, хотя они уже в меньшей степени играют роль, только если не хотите чтобы она могла писать адекватные стихи. В общем я думаю не скоро нас заменят. Еще один фактор это плохие датасеты, а использование данных сгенерированных нейронками только останавливает развитие достаточно понимающих текст ИИ. Ну а так же что open ai режет мощности после выхода, чтобы удешевить, в том числе поймав уже достаточно хайпа релизит о3 которая хуже чем о1, разве что по знаниям превосходит. Кстати по опыту гемини в разы мощнее и умнее этой о3, с дипсиквми R1 и их ограниченными датасетами сравнивать нет смысла ( еще на v2 это было очень заметно, когда нейронка отвечала как чат бот шаблонами)
Но работает лучше, за счет того что она переписывает твой вопрос в другой форме, а потом уже пишет решение. Грубо говоря это как мысли (r1, o1..).
Но в целом после их обновлений всегда чувствуется потеря мощности в сторону дешевизны процесса.
К лету обещали там гпт 5