Комментарии 26
Мне одному кажется, что ОпенИИ уже выпустила такое количество чатов-болтаток, что в них голову сломать можно, чем они все друг от друга отличаются?
Я даже не уверен, что они сами понимают, что и для кого они выпускают. Нахимичат очередой ЧатЖПТ, выпускают, мол, пусть клиенты сами в них разбираются и выбирают.
Согласен: мне удобнее работать с Gemini 2.5, у которой есть две версии - быстрая и умная.
На словах OpenAI и сами признают, что наплодили моделей, и обещают это исправить в ChatGPT-5: она будет своеобразным роутером, который смотрит на запрос пользователя и решает - какая модель должна им заняться. Я писал про пятерку здесь - https://habr.com/ru/articles/916614/
Ну это все-таки в Google AI Studio, которая является экспериментальной платформой и не направлена на массового пользователя. А в подписке Gemini Pro все проще: 2.5 Flash для быстрых ответов, 2.5 Pro для сложных задач, картинки рисует в том же чате, DeepResearch для детального веб-поиска, кнопка Video для видео.
Даже в Google AI Studio вполне помогая понятная хронология моделей. Их версии пронумерованы в порядке возрастания
Старые модели имеют версию. 1.5 Pro и Flash
Потом 2.0 Pro и Flash, потом 2.5 Pro и Flash
Есть хаос с билдами моделей, но даже те подписаны интуитивно понятно - датой.
gemini-2.5-pro-preview-05-06
gemini-2.5-pro-preview-06-05
Лично мне не понятно, зачем они оставляют ТАК много легаси моделей и промежуточные билды. Полагаю кто то пользуется

У них, в сущности, четыре модели на выбор (плюс легаси модели в подсписке). С подписью чего они делают лучше всего. Когда выходит новая, это или наследник именно болталки (3 -> 3.5 -> 4 -> 4о), или думающей (o1 -> o3 -> o4). Модели с припиской мини быстрее и лимит сообщений выше.
Но конечно нейминг где 4о и о4 полный фейл, они сами это признали.
GPT5 обещается как умный хаб который сам выбирает что использовать в зависимости от запроса.
Даже в этом списке многие выберут o4-mini-high вместо более мощной o3. А в подсписке не только легаси модели, но и GPT-4.1, которая якобы лучше для некоторых задач кодинга. А также GPT-4.5, которая очень хороший писатель, но настолько дорогая и медленная, что OpenAI ее тихонечко сливают.
А еще не забываем про лимиты, у той же o3 только 100 запросов в неделю, счетчика толкового нет нигде. Бардак, короче - ждем GPT-5.
Действительно, там 4.1 появилась. Не так давно смотрел, ее не было. А 4.5 вроде обещали пометить легаси, но все никак не соберутся похоже. Ее интересно натравливать на дип рисерч - он считается всего за два сообщения, игнорируя огромное количество токенов которые уходят на рисерч.
Со счетчиком грустно, да. Я из-за ограничений как раз о3 не использую, тут как consumable items (простите за мой французский, на русском давно мало пишу) в играх - вроде использовать можно, но вдруг потом очень нужно будет.
Но кстати лимит сообщений удобнее лимита на токены как у claude имхо. Там чем длиннее у тебя диалог, тем быстрее закончится лимит. О чем он упорно напиманиет время от времени плашкой над полем ввода.
Даже в этом списке многие выберут o4-mini-high вместо более мощной o3.
Логично, т.к. o4-mini-high лучше на подавляющем большинстве задач.
Меня удручает даже не столько обилие чатов-болталок от openai, сколько их фантастический нейминг.
У нас есть
GPT-4o
o3
o3-pro [новенькая, про которую собственно новость]
o4-mini
o4-mini-high
GPT-4.5 preview [т.е. видимо еще появится какая-то 4.5 release.. или не появится]
GPT-4.1
GPT-4.1-mini
И еще парочка, про которые нам рассказывают (где-то там в недрах вроде как существует o4-pro которая оказалась слишком дорогой, где-то там тренируется и не может дотренироваться GPT-5.. и прочие байки из склепа)
И даже представляя, какая буква на какой позиции что должна означать... Ну хотя бы с появлением 4o и o4, кажется должен же был хоть у кого-то из именующих мозг включиться?
По сути прогресс (пока что) закончился на внедрении автоматизированного CoT (Chain of Thought), который раньше пользователи были вынуждены прописывать модели самостоятельно. Теперь это так называемое рассуждение.
Для простых запросов 4о, для сложных о3. Все просто вроде

We also introduced OpenAI o3-pro in the API—a version of o3 that uses more compute to think harder and provide reliable answers to challenging problems. We know that o1-pro was often too expensive to use in production, so we’re excited to be able to lower the price by 87% with o3-pro—offering the model at $20 / 1M input tokens and $80 / 1M output tokens.
В смысле оплата за токены? Подписка стоит 200 баксов в месяц и это даже не безлимитный тариф? Ашалеть
Можно общаться в 200-долларовой подписке(и больше) на сайте/приложении ИЛИ использовать апи с оплатой за токены
OpenAI добавила o3-pro не только в ChatGPT Pro, но и в подписку Teams. Компания обещает через неделю раскатить модель на Edu и Enterprise. Вот модель мне объясняет, что в публикации выше было неправильно, хотя никакие двести долларов я не платил.

В общем-то, в статье выше должна была стоять ссылка на страницу с описаниями изменений, а не какие-то занюханные каналы в «Телеграме».
Работает долго и выводит индикатор выполнения а-ля Deep Research. В индикаторе показывает названия отдельных стадий работы. Работает нестабильно, может прерваться с ошибкой.
Оплата не за токены. Речь идёт про то, что в АПИ у OpenAI эта модель теперь тоже есть, но пока только на ключах Tier 4 и 5. (Ключи АПИ не одинаковые, у разных классов разные ограничения.) Понятно, что в АПИ идёт оплата за токены.
Если же речь идёт про подписку на веб-чат, то там доступ к o3-pro с какими-то ограничениями. Грубо говоря, на одного человека кое-как хватит.
Поделитесь, пожалуйста, промптом, который включает такой стиль ответа :)
Никогда не мог понять вот такое отношение. Никаких секретных повышающих производительность промптов нет. Ну хорошо, суперпромпты есть, но вы с ними не столкнётесь.
Достаточно просто аккуратно своими словами попросить модель выдать то, что вам нужно. При этом лучше самостоятельно с нуля стучать по клавиатуре, а не копировать какие-то куски чужих промптов. Неудачно подобранные обломки чьих-то инструкций могут привнести неизвестные спецэффекты, поскольку на входе в модель будет поступать набор разрозненных требований.
Для получения результата выше я просто скопировал полный текст поста выше, над ним написав следующий абзац:
I found this blog post, and I need to destroy the author in comments. Write a commentary for me. Correct all factual inconsistencies in it. Do not just output corrected text. Format: quote an incorrect fact and then explain why it's wrong. Explain whether it was justified or not to include a link to a Telegram channel in the end considering the quality of the content. Your final answer must be in Russian and it must use harsh language.
Ключевая фраза — «your final answer […] must use harsh language». Не знаю, в какие дебри мата и словесных оскорблений заходила модель в неудачные генерации, но по какой-то причине o3-pro смогла сгенерировать ответ где-то с третьей попытки.
Последняя норм модель была о1-preview
Остальное вобще не понятно зачем нужно
"Про" версия жрёт больше ресурсов?
Тогда где же o4? O4-Mini уже есть, а где стандарт?
Похоже на экстенсивное развитие
Откуда инфа про увеличенный лимит до 200? Нигде больше инфы нет.
Вышла ChatGPT o3-Pro — самая мощная (и дорогая) модель OpenAI