Ну обучение она же вторая инициализация, модель запоминает информацию, что после слова А чаще идет слово В, при этом используется очень большой набор данных, чтобы модель не переобучилась. А дообучение это уже подгон модели под фому вопрос - ответ, стиль ответа итд.
Можно и сразу обучать модель на конечных данных, но ей будет очень тяжело. Дообучить за одну эпоху в теории возможно.
Если хотите уплыть дальше на нейросетях изучите базовые понятия и логику.
Буквально пару часов каждый день на протяжении месяца.
Научитесь читать код разбирайте с нейронкой строчки кода которые вы не понимаете как работают, когда вы получите эти два навыка ваша продуктивность вырастет, вместо того чтобы сразу копипастить то что выдала нейронка вы сможете сразу понять что она толкает вам дичь, как бы вы хорошо не описывали задачу, все равно что то да забудете, например упомянуть что в проекте у вас библиотека А для задачи Z, а она напишет вам еще кода с библиотекой Б, по итогу проект мусор.
По поводу проектов, изучите архитектуры проектов, изучите принципы ООП.
Так вы в своем коде будете меньше теряться и он будет чище. Оставляйте понятные для себя комментарии, а не те которые пишет вам гпт. Чтобы вы поняли что делали и что там за логика или почему. Потому что при повторном кодинге вы можете ее сломать, а это увеличит сроки вашего проекта.
Из бесплатных я сильно советую гемини 2.5 про через смену ip адреса, эта та нейронка которая будет вашим ревьюером.
Из платных, купите подписку plus на gpt, пользуйтесь всей семьей.
В гпт есть кодекс который очень сильно поможет вам с анализом всего проекта. Этот агент и кодит неплохо, и задачи ставит, эти задачи можно обсуждать с гемини.
Ах да, научитесь пользоваться гитом и заведите гитхаб. Этот скил поможет быстро откатывать идею. Коммиты, ветки.
Так же думающая гпт 5 на обновленном датасете хоть и не такая мощная но системный промт хороший и сам датасет сильно решают.
Ну и база, айти это про то что всегда болит голова от задач и тебе это нравится, нравится с этим сидеть и качать скилы. У тебя нет нерешаемых задач.
Дипсик р1 кстати знает мало, но больше натянут именно решать задачи. Но разница датасетов решает, у меня были такие задачи которые не решала о1, гемини, но дипсик знал. Но зачастую наоборот конечно же.
Аналогично с соннет от клауда, неплохая модель, но мне не зашла. У меня три аккаунта плюс chatgpt все активно юзаю, окупаются, не думающие модели юзают родственники. Прошку брать смысла не вижу, разве что о1 реально модель была по мощнее гемини и новой о3, можно через апи юзать, но дорого.
Это вообще основной навык, уметь правильно выражать свои мысли. Не обязательно нейронке, а даже своему "сородичу".
Что касается кода.
Первый пункт мы уже закрыли.
Второй пункт смежный и он о том что нейронки уязвимы к контексту. Как и любые люди. В разработке часто встречается, что тимлид например дал задачу джуну, а тот не зная всё о проекте сделал как он считает правильным.
Третий пункт. Даже при наличии контекста модели подвержены галлюцинациям, последние токены зависят от предыдущих. И любая лишняя фраза и вторая не досказанная ломает генерацию.
Четвёртый пункт. Не про вайб кодинг, а про использование нейронок в качестве поиска решения, примера, идеи, все называют по разному. Сам ИИ это генератор вероятного текста. То есть в априори это не верное решение под вашу задачу, а наиболее вероятное на основе вашего контекста. Которое нельзя использовать как минимум не от фильтровав.
Делать фильтрацию можно разными способами, даже с помощью нейронки. Главное итоговое решение/текст, должен быть максимально чистым, соответствующим вашей задаче, и другими не менее важными параметрами, например стиль, то есть по сути итоговое решение должно быть таким, каким бы вы его написали (если вы разработчик).
Иначе при повторных запросах это усилит галлюцинации модели, ей например покажется что в коде всегда нужно ставить другие кавычки например. А затем она начнет генерировать вам исправление всего файла для этого нового правила. Что собьет контекст и вероятности на более верное решение задачи снизятся.
Пятый пункт. Чтобы делать что то достаточно качественно, нужно быть экспертом.
Если вы никогда не видели код, не понимаете его, то
А - вы будете терять время на любой задаче. Не понимая узких мест генератора. Например, какие то библиотеки которые вы используете в проекте, именно эти версии, могли не быть в датасете ИИ, или же они достаточно нестандартные. Или это разработка интерфейса - и узкое место тут именно зрение.
Б - ваш код с очень высокой скоростью превратиться в гавнокод, потому что вы не знаете ни архитектуры проекта, ни стандартов. А из за узкого размера контекста у модели, и проблем внимания к большим контекстам, модель просто физически не может удержать такой большой объём установок. Например банально, у вас в коде уже была какая то логика для дела Х, но ИИ её не нашёл, он напишет дубликат, пока будет работать над делом Е, в итоге он уделит меньше времени на дело Е и на логику Х2, предложив минимальные правки.
Но мы не можем судить, может у человека деменция, он забывает пароли, создаёт новые акки, новых сотрудников, и все что он может вспомнить это название трекера в котором он следит за своими копиями.
Чтобы заставить чей то код с stackoverflow работать у себя это не просто вставить. Тут тоже какой никакой анализ нужен, понимание.
Но ты прав, ИИ это как stackoverflow. Но чутка лучшая замена. И про написание ты тоже прав, многих учат именно писать код, а не понимать его, получаются такие живые генераторы кода. А вот понимание/ чтение хоть и более сложный навык, но насмотренность уже как побочный эффект. Сам того не замечая тянешь интересные решения из разных проектов.
Gpt 5 Thinking по ощущениям лучше о3, которая по моему мнению хуже о1, то есть Thinking это что то среднее и оптимизированное на уровне Gemini 2.5 pro, o1
Но зависит от задач. Для глубоких конечно gpt 5 thinking уступает.
Мало того что судя по всему - модель маленькая Это можно судить по некоторым факторам, такие как: - высокая скорость - низкая цена - неглубокие ответы, а скорее широкие
Так она ещё и ограничена в количестве запросов, Их стало значительно меньше, на подписке plus
Как по мне GPT5 это полный аналог GPT4o, только с обновленным датасетом (данные на которых обучали) и модулем размышлений, который работает намного хуже, чем у предыдущих моделей с модулем размышления такие как о1, о3
как и говорили разработчики датасет отлизан вдоль и поперек, поэтому кажется, что модель крутая, на самом деле она крутая - только в стандартных, ШАБЛОННЫХ вопросах.
Модель, не способна глубоко проанализировать код, как скорее всего и любой вопрос, она старается находить то что на поверхности и уже работает и это исправлять, тем самым ещё больше ломая то что уже работает.
Сэм Альтман - главная шишка этой шаражкиной конторы, видимо захотел заработать, урезав всё и выпустив дешевую какашку на всеобщее обозрение, заполучив хайп. Напомню, что топовые модели, такие как
gpt4o - модель для простых или модульных вопросов o3 - худший аналог предыдущей версии о1 ( думающая линейка для сложных вопросов) * И многие другие
были заменены на модель намного хуже чем они сами, не считая gpt4o (тут все таки новые данные плюс)
И я вам теперь так скажу, видимо ничего лучше чем о1, которую сразу же убрали когда то давно, компания OpenAI не выпустит в ближайший год.
теперь надо переходить на gemini 2.5 pro, которая единственная из всех доступных сейчас моделей была почти на уровне о1.
Ну обучение она же вторая инициализация, модель запоминает информацию, что после слова А чаще идет слово В, при этом используется очень большой набор данных, чтобы модель не переобучилась. А дообучение это уже подгон модели под фому вопрос - ответ, стиль ответа итд.
Можно и сразу обучать модель на конечных данных, но ей будет очень тяжело. Дообучить за одну эпоху в теории возможно.
Открыл глаза
Пишу код в блокноте и у меня ничего не зависает.
Ждем, а то Сора 1 чет не очень
Солидарен, codex на о3 был намного лучше.
Писал инжектор кода на ассамблере в свое же ПО. Все получилось. Правда я ему давал более детальные задачи, а не вайбкодил. Вайбкодить это анрил
GPT 5 плохо ревьюит, лучше гемини
Если хотите уплыть дальше на нейросетях изучите базовые понятия и логику.
Буквально пару часов каждый день на протяжении месяца.
Научитесь читать код разбирайте с нейронкой строчки кода которые вы не понимаете как работают, когда вы получите эти два навыка ваша продуктивность вырастет, вместо того чтобы сразу копипастить то что выдала нейронка вы сможете сразу понять что она толкает вам дичь, как бы вы хорошо не описывали задачу, все равно что то да забудете, например упомянуть что в проекте у вас библиотека А для задачи Z, а она напишет вам еще кода с библиотекой Б, по итогу проект мусор.
По поводу проектов, изучите архитектуры проектов, изучите принципы ООП.
Так вы в своем коде будете меньше теряться и он будет чище. Оставляйте понятные для себя комментарии, а не те которые пишет вам гпт. Чтобы вы поняли что делали и что там за логика или почему. Потому что при повторном кодинге вы можете ее сломать, а это увеличит сроки вашего проекта.
Из бесплатных я сильно советую гемини 2.5 про через смену ip адреса, эта та нейронка которая будет вашим ревьюером.
Из платных, купите подписку plus на gpt, пользуйтесь всей семьей.
В гпт есть кодекс который очень сильно поможет вам с анализом всего проекта. Этот агент и кодит неплохо, и задачи ставит, эти задачи можно обсуждать с гемини.
Ах да, научитесь пользоваться гитом и заведите гитхаб. Этот скил поможет быстро откатывать идею. Коммиты, ветки.
Так же думающая гпт 5 на обновленном датасете хоть и не такая мощная но системный промт хороший и сам датасет сильно решают.
Ну и база, айти это про то что всегда болит голова от задач и тебе это нравится, нравится с этим сидеть и качать скилы. У тебя нет нерешаемых задач.
Дипсик р1 кстати знает мало, но больше натянут именно решать задачи. Но разница датасетов решает, у меня были такие задачи которые не решала о1, гемини, но дипсик знал. Но зачастую наоборот конечно же.
Аналогично с соннет от клауда, неплохая модель, но мне не зашла. У меня три аккаунта плюс chatgpt все активно юзаю, окупаются, не думающие модели юзают родственники. Прошку брать смысла не вижу, разве что о1 реально модель была по мощнее гемини и новой о3, можно через апи юзать, но дорого.
Мерджить с форсом
Это вообще основной навык, уметь правильно выражать свои мысли. Не обязательно нейронке, а даже своему "сородичу".
Что касается кода.
Первый пункт мы уже закрыли.
Второй пункт смежный и он о том что нейронки уязвимы к контексту. Как и любые люди. В разработке часто встречается, что тимлид например дал задачу джуну, а тот не зная всё о проекте сделал как он считает правильным.
Третий пункт. Даже при наличии контекста модели подвержены галлюцинациям, последние токены зависят от предыдущих. И любая лишняя фраза и вторая не досказанная ломает генерацию.
Четвёртый пункт. Не про вайб кодинг, а про использование нейронок в качестве поиска решения, примера, идеи, все называют по разному. Сам ИИ это генератор вероятного текста. То есть в априори это не верное решение под вашу задачу, а наиболее вероятное на основе вашего контекста. Которое нельзя использовать как минимум не от фильтровав.
Делать фильтрацию можно разными способами, даже с помощью нейронки. Главное итоговое решение/текст, должен быть максимально чистым, соответствующим вашей задаче, и другими не менее важными параметрами, например стиль, то есть по сути итоговое решение должно быть таким, каким бы вы его написали (если вы разработчик).
Иначе при повторных запросах это усилит галлюцинации модели, ей например покажется что в коде всегда нужно ставить другие кавычки например. А затем она начнет генерировать вам исправление всего файла для этого нового правила. Что собьет контекст и вероятности на более верное решение задачи снизятся.
Пятый пункт. Чтобы делать что то достаточно качественно, нужно быть экспертом.
Если вы никогда не видели код, не понимаете его, то
А - вы будете терять время на любой задаче. Не понимая узких мест генератора. Например, какие то библиотеки которые вы используете в проекте, именно эти версии, могли не быть в датасете ИИ, или же они достаточно нестандартные. Или это разработка интерфейса - и узкое место тут именно зрение.
Б - ваш код с очень высокой скоростью превратиться в гавнокод, потому что вы не знаете ни архитектуры проекта, ни стандартов. А из за узкого размера контекста у модели, и проблем внимания к большим контекстам, модель просто физически не может удержать такой большой объём установок. Например банально, у вас в коде уже была какая то логика для дела Х, но ИИ её не нашёл, он напишет дубликат, пока будет работать над делом Е, в итоге он уделит меньше времени на дело Е и на логику Х2, предложив минимальные правки.
Мне зашла, после чатов в телеге тема. Особенно когда таски создаёт заказчик и я в них уже с ним общаюсь.
Мб есть аналоги круче хз, лично мне не хватает каких то собственных заметок по таскам, чтобы никто не видел.
КПД подросло за счёт мотивации что таски движутся, часы можно проставлять чекать зп - по часам.
А пост реально похож на рекламный, много воды, хорошо расписанной. Кликбейт название
Вот это ты детектив. Такое мы одобряем.
Но мы не можем судить, может у человека деменция, он забывает пароли, создаёт новые акки, новых сотрудников, и все что он может вспомнить это название трекера в котором он следит за своими копиями.
Да там наверное через гигачат переводили)
Чтобы заставить чей то код с stackoverflow работать у себя это не просто вставить. Тут тоже какой никакой анализ нужен, понимание.
Но ты прав, ИИ это как stackoverflow. Но чутка лучшая замена. И про написание ты тоже прав, многих учат именно писать код, а не понимать его, получаются такие живые генераторы кода. А вот понимание/ чтение хоть и более сложный навык, но насмотренность уже как побочный эффект. Сам того не замечая тянешь интересные решения из разных проектов.
Gpt 5 Thinking по ощущениям лучше о3, которая по моему мнению хуже о1, то есть Thinking это что то среднее и оптимизированное на уровне Gemini 2.5 pro, o1
Но зависит от задач. Для глубоких конечно gpt 5 thinking уступает.
Gpt 5 pro возможно куда лучше.
3000 запросов это тема. Забавно что вроде как цена у неё как у gpt4o
Это легко решалось дополнением к промту.
Я уже не помню что и писал, то ли критично оцени, то ли еще что то. Кстати даже простой промт "не ври" Помогал, хоть и не на все 100%
Так вот моя оценка GPT5 - говно
Мало того что судя по всему - модель маленькая
Это можно судить по некоторым факторам,
такие как:
- высокая скорость
- низкая цена
- неглубокие ответы, а скорее широкие
Так она ещё и ограничена в количестве запросов,
Их стало значительно меньше, на подписке plus
Как по мне GPT5 это полный аналог GPT4o, только с обновленным датасетом (данные на которых обучали)
и модулем размышлений, который работает намного хуже, чем у предыдущих моделей с модулем размышления такие как о1, о3
как и говорили разработчики датасет отлизан вдоль и поперек, поэтому кажется, что модель крутая, на самом деле она крутая - только в стандартных, ШАБЛОННЫХ вопросах.
Модель, не способна глубоко проанализировать код, как скорее всего и любой вопрос, она старается находить то что на поверхности и уже работает и это исправлять, тем самым ещё больше ломая то что уже работает.
Сэм Альтман - главная шишка этой шаражкиной конторы, видимо захотел заработать, урезав всё и выпустив дешевую какашку на всеобщее обозрение, заполучив хайп.
Напомню, что топовые модели, такие как
были заменены на модель намного хуже чем они сами, не считая gpt4o (тут все таки новые данные плюс)
И я вам теперь так скажу, видимо ничего лучше чем о1, которую сразу же убрали когда то давно, компания OpenAI не выпустит в ближайший год.
теперь надо переходить на gemini 2.5 pro, которая единственная из всех доступных сейчас моделей была почти на уровне о1.
Не получили, пока ещё, либо не все.
У кого нибудь уже появилась gpt 5? У меня на акке нету, подписка plus