Как стать автором
Обновить

Комментарии 6

Ого. Столько пыли-то в глаза пускать. Красиво они это придумали. Собрали все абсолютно бесполезные финтифлюшки, и начали их выпускать как самые крутые обновления моделей с помпой и расстановкой, только чтобы отбить внимания инвесторов от того, что о1про стоит 200 в месяц, и за такую цену они не очень уверенны, что о1про будут брать.

Но ничего, молодцы. Целых 12 релизов чего-то там сделали.

Как же хорошо состарился этот коммент. Вместо того, чтобы заниматься серьёзными разработками, Open AI занимались сидением на лаврах и подниманием цен на ту хтонь, которую они называли "рассудительными моделями". Ну вот, месяц после этого коммента вышел DeepSeek и дал под дых OpenAI.

Я не пророчу им быструю смерть. Есть всё-же, порох в пороховницах. Но просто надо понимать, что когда ты работаешь в настолько быстром окружении, то и самому надо быть разкому как понос, и уметь выпихиывать апдейты, а не докручивать гаечки на приборной панели своих продуктов.

Очень сомневаюсь, что мы увидим o4 в 2025. OpenAI говорит, что скорость выпуска новых поколений «моделей рассуждений серии o” будет в разы выше чем релиз моделей GPT. Но на AMA два месяца назад, они сами сказали, что pre-training играет не меньшую роль, чем test-time compute.

То есть всё равно есть необходимость строить громадные суперкомпьютеры для pre-training. А постройка подобных кластеров занимает очень много времени.

Если у тебя имя не Илон)

Маск безусловно крут. 100к H100s за 4 месяца поразило всех. Но 1М GPU даже Маск планирует «достроить» в 2026.

По тестам получается AGI? Или тесты нужно менять? По Frontier Math читал мнения пару месяцев что пройдут многие роли когда модели решать такие тесты. Прошло пару месяцев и вот уже 25 процентов.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации