Pull to refresh
1
Send message

Так есть codex, от OpenAI, он может дебажить)

Он так же может декомпозировать задачу, развернуть доокер итд. А ещё по ощущениям хорошо ориентироваться в большом проекте, хоть он и читает код кусками и долго.

Для сравнения, была задача которую я сделал за 20 минут, особо не зная проект, а кодекс решил её почти за час если ближе к вайб кодингу уходить.

Решение кстати в разы лучше того что обычно предлагает какой нибудь gpt4o или о3.

В работе активно юзаю когда надо найти какую то логику, сущности, файлы или даже накидать догадки. Вот как ускорение анализа тема.

У меня плюс, был период что в течении месяца каждый час ловил КД на запросы. Бана не получал.

Возможно у него как раз пустой аккаунт и он очень жестко скакал по темам, но кто знает.

Есть такое. Пол проекта сношу когда с чистой головой возвращаюсь.

Они плохо осведомлены в этих темах на русском языке. Если ты пару суток по переписываешься то тебе надоест. Чтобы в 18+ общаться тебе нада через АПИ запросы кидать, ибо там проверка на контент отдельно, а еще лучше зафайтюнить немного, помимо промт инжиниринга системного.

Но самый лучший вариант, это собрать большой датасет и дообучить без лора напрямую какую нибудь из нейронок.

Ну верно, но для генеративных моделей все же требуются значительные мощности. Хотя все же для простого бота поддержки в банке я думаю джетсон пойдет

Это когда было то, сейчас смотрю по вакансиям требования дикие, на джуна на фронт и бек, как будто ты должен в космос корабли строить, а не сайты для бизнеса. Реального опыта 3х лет даже мало.

Уже видел ролики с генерацией мира в майне в реальном времени. Понятно пока бюджет не выделен, но уже видно какие то достижения. Как по мне было бы неплохо начать с малого, например генерация паркура) или дороги в гонках. Но пока мне кажется это выходит сильно дороже чем играть в готовые требовательные игры. Ибо норм нейронки текстовые в 24гб озу без квантования не влезают.

Тебе ничего не мешает дообучить понравившуюся модель. Одну генерировать вопросы для сбора информации другую для проектирования, и так далее, а потом их еще обьеденить через общий трансформер создав псевдо подобие MoE, просто чтобы они имели какие то представлентя на сколько вопрос раскрыт или еще что то на каждом из этапов. Я от части с тобой согласен, "размышляющие" Модели уже показывают результат намного лучше, благодаря дополнительной информации, будь то мысли на общем выходе как у deepseek и gemini?или внутри модели как у open ai. Но не суть. Разные подходы там дают не так много эффективности, по сравнению с наличием. А что мешает научить модель разделять этапы? Итерируя себя N раз суммируя k имея по мимо ролевых эмбедингов еще и сдвиг по этапам или доп вектор какой? Почти тот же эффект что если бы и обучить отдельно одну модель под разные этапы, хотя это позволит не раздувать модель на много агентов. Просто сам фактор что даже в реальной разработке люди имеют достаточно большое представление друг о друге и тот же бекендер сможет и поверстать, хоть и не всегда это применимо, но чем лучше они знают друг друга и работу тем слаженее все идет. Я для себя отметил, что пока нейронки не понимают в большем случае даже простые задачи, будь то о1, о3 или гемини 2.5 про. Как бы я хорошо контекст не пытался писать, бывало и такое что они долбились в глаза как обычно пытаясь поломать весь код, не понимая что причина в том что не хватало одной строчки. Из таких базовых примеров это адекватный бургер меню как у open ai без реакта, простое смещение блоков при раскрытии (в шахматном порядке всегда но открытый заниет все 12 колонок) , потом нейронку никакая нейронка написать не может вообще, все что отходит от шаблона на уровень среднего и выше тут уже нейронка не справляется. По мимо проблемы токенизации из за которого она вообще понятия не имеет о буквах, так есть вторая проблема это математика. А есть еще и звуки, ударения, хотя они уже в меньшей степени играют роль, только если не хотите чтобы она могла писать адекватные стихи. В общем я думаю не скоро нас заменят. Еще один фактор это плохие датасеты, а использование данных сгенерированных нейронками только останавливает развитие достаточно понимающих текст ИИ. Ну а так же что open ai режет мощности после выхода, чтобы удешевить, в том числе поймав уже достаточно хайпа релизит о3 которая хуже чем о1, разве что по знаниям превосходит. Кстати по опыту гемини в разы мощнее и умнее этой о3, с дипсиквми R1 и их ограниченными датасетами сравнивать нет смысла ( еще на v2 это было очень заметно, когда нейронка отвечала как чат бот шаблонами)

Но работает лучше, за счет того что она переписывает твой вопрос в другой форме, а потом уже пишет решение. Грубо говоря это как мысли (r1, o1..).

Но в целом после их обновлений всегда чувствуется потеря мощности в сторону дешевизны процесса.

К лету обещали там гпт 5

Information

Rating
7,588-th
Registered
Activity

Specialization

Фулстек разработчик
Старший
From 100 ₽
Python
Linux
ООП
Java
Web
Базы данных
Разработка программного обеспечения
Многопоточность
Машинное обучение
Разработка мобильных приложений