Комментарии 6
Ого. Столько пыли-то в глаза пускать. Красиво они это придумали. Собрали все абсолютно бесполезные финтифлюшки, и начали их выпускать как самые крутые обновления моделей с помпой и расстановкой, только чтобы отбить внимания инвесторов от того, что о1про стоит 200 в месяц, и за такую цену они не очень уверенны, что о1про будут брать.
Но ничего, молодцы. Целых 12 релизов чего-то там сделали.
Как же хорошо состарился этот коммент. Вместо того, чтобы заниматься серьёзными разработками, Open AI занимались сидением на лаврах и подниманием цен на ту хтонь, которую они называли "рассудительными моделями". Ну вот, месяц после этого коммента вышел DeepSeek и дал под дых OpenAI.
Я не пророчу им быструю смерть. Есть всё-же, порох в пороховницах. Но просто надо понимать, что когда ты работаешь в настолько быстром окружении, то и самому надо быть разкому как понос, и уметь выпихиывать апдейты, а не докручивать гаечки на приборной панели своих продуктов.
Очень сомневаюсь, что мы увидим o4 в 2025. OpenAI говорит, что скорость выпуска новых поколений «моделей рассуждений серии o” будет в разы выше чем релиз моделей GPT. Но на AMA два месяца назад, они сами сказали, что pre-training играет не меньшую роль, чем test-time compute.
То есть всё равно есть необходимость строить громадные суперкомпьютеры для pre-training. А постройка подобных кластеров занимает очень много времени.
По тестам получается AGI? Или тесты нужно менять? По Frontier Math читал мнения пару месяцев что пройдут многие роли когда модели решать такие тесты. Прошло пару месяцев и вот уже 25 процентов.
Подводим итоги 12 дней адвент-календаря OpenAI: полный список релизов