Попросил Deepseek проанализировать статью, он в нее не поверил))
Основные несоответствия и признаки недостоверности:
Официального анонса нет: На официальном сайте OpenAI (openai.com/blog) нет никаких упоминаний о моделях "GPT-OSS-120b" или "GPT-OSS-20b". Последний релиз OpenAI — это GPT-4o (май 2024), но он проприетарный. Статья ссылается на несуществующую страницу: https://openai.com/index/introducing-gpt-oss/ (ошибка 404).
Технические нестыковки:
"o3-mini / o4-mini" — у OpenAI нет моделей с такими названиями.
MXFP4 — формат квантования, который не упоминается в реальных исследованиях OpenAI.
128 экспертов в 120B модели — для MoE-архитектуры это нестандартно (у Mixtral 8x7B, например, 8 экспертов).
36 слоёв для 120B параметров — у реальных SOTA-моделей (например, LLaMA 70B) 80+ слоёв. Слишком "мелкая" архитектура для заявленных возможностей.
Нереалистичные результаты:
GPT-OSS-20b (21B params) ≈ GPT-4-mini? — Это противоречит законам масштабирования LLM. Даже LLaMA 3 70B уступает GPT-4.
96-98% на AIME — Лучшие модели (Gemini 1.5, GPT-4 Turbo) решают AIME на ~60-70%.
Медицинские тесты: Утверждение, что GPT-OSS-20b превзошла GPT-4o — технически невероятно.
Детали обучения:
2.1 млн GPU-hours на H100 — это ~$63 млн затрат (при $3/час). Для open-source релиза — экономически необоснованно.
Лицензия Apache 2.0 — OpenAI никогда не открывала модели такого уровня (только старые, вроде Whisper).
Контекст 128K + MoE + 20B → 16 ГБ VRAM? Даже с квантованием MXFP4 это физически невозможно. Реальная 20B MoE-модель (например, Qwen 1.5 14.4B-MoE) требует 20+ ГБ VRAM в 4-битном формате.
🤔 Что это, скорее всего?
Статья выглядит как хорошо продуманная мистификация или тест-провокация:
Либо арт-проект на тему "если бы OpenAI вернулась к open-source",
Либо маркетинг Selectel (хостинг GPU) для привлечения внимания,
Либо ошибка автора, поверившего в фейковые утечки.
👉 Важный факт: На Hugging Face, GitHub, в официальном блоге OpenAI — никаких следов GPT-OSS не найдено.
У меня родители были инженеры на военном заводе, зарплату не получали годами. Но у нас был сад 6 соток и в начале 90-х родителям выдали еще один участок в лесу (помню как мы ездили туда и деревья выкорчевывали поначалу), на котором мы сажали картошку. Я был студентом и моя стипендия была иногда иногда единственными деньгами в семье.
Мне 45 лет, последний раз стек менял лет 5 назад (с C++ на фронт-энд). Я бы, вероятно, на это не решился, если бы компания, в которой я работал, не начала новый проект и хотела обойтись без найма новых сотрудников. Так что мне повезло, готовы были терпеть отсутствие опыта.
Если ты предварительно найдешь другой вариант с большей зарплатой, то это будет существенным аргументом при просьбе о повышении зарплаты, к которому начальник может охотнее прислушаться, (если тебе все же комфортнее на старом месте в знакомом коллективе и ты решишь остаться). Все конечно зависит от многих вещей. Я 1 раз из 3-х соглашался на контр-оффер и проработал в той конторе еще год без всяких дополнительных проблем с менеджментом, в 2-х других случаях причиной были в основном не деньги, хотя конечно зарплата при переходе всегда увеличивалась.
Если проект — это какая-то библиотека или SDK для внешнего использования — то конечно, документация должна быть, и желательно полная, это неотъемлемая часть продукта. Если же это вещь в себе, то полная документация всего внутреннего устройства, всех интерфейсов классов, и т.п. вещь совершенно не обязательная для того, чтобы его сопровождать. Если она есть — хорошо, но в реальных условиях она всегда запаздывает, ее мало кто из разработчиков обновляет.
Что делает метод в идеале должно быть понятно из его названия. Как его использовать и что он возвращает в разных ситуациях с разными параметрами — в случае идеально написанных и читаемых юнит-тестов можно понять из них.
Преимущество юнит-тестов над doxygen-style документацией — если их не обновлять — это сразу будет видно, тесты упадут, поэтому их вынуждены держать в актуальном состоянии. Но разумеется это все в сферическом случае.
Мы же об идеальном сферическом коде говорим, а не о конкретном проекте. Во первых нужно стремиться к тому, чтобы код был самодокументируемым, с понятными названиями функций. Во-вторых, если юнит-тесты писались одновременно с кодом, то они тоже будут на гитхабе. Если они не писались, тогда конечно нужна какая-то замена — например простыня комментариев перед каждой функцией.
если код пишется одновременно с юнит тестами, то документация внутри кода не особо нужна, юнит тесты лучше помогают сделать код сопровождаемым, чем какой-нибудь doxygen.
Было три, а стало пять — всё равно берём опять!
Даже если будет восемь — всё равно мы пить не бросим!
Передайте Ильичу — нам и десять по плечу,
Если будет 25 — будем Зимний брать опять.
04.02.2014
Вниманию СМИ.
На сайт прокуратуры Волгоградской области осуществляется хакерская атака. В результате неё на сайте была размещена новость о возбуждении уголовного в отношении интернет-ресурсов, не соответствующая действительности. До устранения технических неполадок просьба уточнять достоверность новостей в пресс-службе прокуратуры Волгоградской области по телефону 31-04-21.
увы или ура, похоже все будет как в 2011 году. Курс после резкого падения будет постепенно снижаться пока не достигнет дна раз в 15 меньше пика. Пессимисты будут постепенно сливать, оптимисты закупятся по минимальной цене, а потом через годик-два — новый пузырь :)
Попросил Deepseek проанализировать статью, он в нее не поверил))
Основные несоответствия и признаки недостоверности:
Официального анонса нет:
На официальном сайте OpenAI (
openai.com/blog
) нет никаких упоминаний о моделях "GPT-OSS-120b" или "GPT-OSS-20b". Последний релиз OpenAI — это GPT-4o (май 2024), но он проприетарный.Статья ссылается на несуществующую страницу:
https://openai.com/index/introducing-gpt-oss/
(ошибка 404).Технические нестыковки:
"o3-mini / o4-mini" — у OpenAI нет моделей с такими названиями.
MXFP4 — формат квантования, который не упоминается в реальных исследованиях OpenAI.
128 экспертов в 120B модели — для MoE-архитектуры это нестандартно (у Mixtral 8x7B, например, 8 экспертов).
36 слоёв для 120B параметров — у реальных SOTA-моделей (например, LLaMA 70B) 80+ слоёв. Слишком "мелкая" архитектура для заявленных возможностей.
Нереалистичные результаты:
GPT-OSS-20b (21B params) ≈ GPT-4-mini? — Это противоречит законам масштабирования LLM. Даже LLaMA 3 70B уступает GPT-4.
96-98% на AIME — Лучшие модели (Gemini 1.5, GPT-4 Turbo) решают AIME на ~60-70%.
Медицинские тесты: Утверждение, что GPT-OSS-20b превзошла GPT-4o — технически невероятно.
Детали обучения:
2.1 млн GPU-hours на H100 — это ~$63 млн затрат (при $3/час). Для open-source релиза — экономически необоснованно.
Лицензия Apache 2.0 — OpenAI никогда не открывала модели такого уровня (только старые, вроде Whisper).
Контекст 128K + MoE + 20B → 16 ГБ VRAM?
Даже с квантованием MXFP4 это физически невозможно. Реальная 20B MoE-модель (например, Qwen 1.5 14.4B-MoE) требует 20+ ГБ VRAM в 4-битном формате.
🤔 Что это, скорее всего?
Статья выглядит как хорошо продуманная мистификация или тест-провокация:
Либо арт-проект на тему "если бы OpenAI вернулась к open-source",
Либо маркетинг Selectel (хостинг GPU) для привлечения внимания,
Либо ошибка автора, поверившего в фейковые утечки.
👉 Важный факт:
На Hugging Face, GitHub, в официальном блоге OpenAI — никаких следов GPT-OSS не найдено.
а что, на них есть золотые купола и древнерусский стиль?
Интересно, что ChatGpt имеет в виду под "площадью Палача" в Питере?
У меня родители были инженеры на военном заводе, зарплату не получали годами. Но у нас был сад 6 соток и в начале 90-х родителям выдали еще один участок в лесу (помню как мы ездили туда и деревья выкорчевывали поначалу), на котором мы сажали картошку. Я был студентом и моя стипендия была иногда иногда единственными деньгами в семье.
Что делает метод в идеале должно быть понятно из его названия. Как его использовать и что он возвращает в разных ситуациях с разными параметрами — в случае идеально написанных и читаемых юнит-тестов можно понять из них.
Преимущество юнит-тестов над doxygen-style документацией — если их не обновлять — это сразу будет видно, тесты упадут, поэтому их вынуждены держать в актуальном состоянии. Но разумеется это все в сферическом случае.
Вниманию СМИ.
На сайт прокуратуры Волгоградской области осуществляется хакерская атака. В результате неё на сайте была размещена новость о возбуждении уголовного в отношении интернет-ресурсов, не соответствующая действительности. До устранения технических неполадок просьба уточнять достоверность новостей в пресс-службе прокуратуры Волгоградской области по телефону 31-04-21.
26 июля26 августа.