Немного не в тему статьи, но в тему ПК для Апокалипсиса и сжатия страниц и википедии, вспомнился такой древний бенчмарк архиваторов от Matt Mahoney который до сих пор обновляется. Там собраны все лучшие известные архиваторы и сделаны бенчмарки на 1GB текстов Английской Википедии. Есть замеры времени сжатия и распаковки, использования оперативки и размера архиватора. Тем кто захочет сжимать Википедию возможно будет полезно)
Я для этих целей использую KaraKeep. Это self-hosted bookmark приложение, которое позволяет сохранять ещё и текст и искать по нему и создаёт саммари и тэги для страниц с помощью ИИ. И есть режим чтения сохранённого текста. Да, бывает часто что страницы и информация пропадают и это позволяет сохранить информацию, не всё, но хотя бы основной текст сайта.
Странный какой-то калькулятор, видимо он считает только цены использования моделей через API ? И не учитывает подписки? Я не использую через API - это будет сильно дороже. А использую подписку и подключаюсь через Oauth. OpenAI разрешили использовать подписки для подключения внешних тулов таких как OpenClaw, Codex и т.д.
Отнюдь))) Подписка ChatGPT Plus за $20 в месяц с Codex. Лимиты там большие. Повесил на одном аккаунте и VSCode и OpenClaw и в лимиты дневные и недельные не упираюсь. Сейчас уже пользуюсь моделью GPT 5.4 на ней тоже в лимиты не упираюсь. Ниже в коментах аналогичный опыт люди описывают.
Пользуюсь Кодексом, но 5.3 версии с утра до вечера по работе. Редко выбираю больше 30% лимита и к вечеру ещё процентов 70% остаётся + OpenClaw на нём же висит. Хотя если стаи агентоа пачками запускать, то можно и лимит наверное увидеть)
Для теста можно попробовать эти модели в приложении LM Studio. В нём можно скачать все те-же модели и давно добавили поддержку мульти-модальных моделей и загрузку картинок в чат.
А по поводу компьютера - тут важна не столько скорость видеокарты, сколько объем видеопамяти и чем больше тем лучше.
Немного не в тему статьи, но в тему ПК для Апокалипсиса и сжатия страниц и википедии, вспомнился такой древний бенчмарк архиваторов от Matt Mahoney который до сих пор обновляется. Там собраны все лучшие известные архиваторы и сделаны бенчмарки на 1GB текстов Английской Википедии. Есть замеры времени сжатия и распаковки, использования оперативки и размера архиватора. Тем кто захочет сжимать Википедию возможно будет полезно)
https://mattmahoney.net/dc/
Я для этих целей использую KaraKeep. Это self-hosted bookmark приложение, которое позволяет сохранять ещё и текст и искать по нему и создаёт саммари и тэги для страниц с помощью ИИ. И есть режим чтения сохранённого текста. Да, бывает часто что страницы и информация пропадают и это позволяет сохранить информацию, не всё, но хотя бы основной текст сайта.
Похоже быстрее будет несколько раз спросить Qwen и поправить ошибки если будут чем один ответ дождаться от glm.
Если делать такой бенчмарк(сравнение), то ещё с учётом скорости ответов надо.
Или Психиатр)
Шестой сделай сам)
Можно ещё Qwen3.5 27B или 35B попробовать.
Ну если взять llm-ку которую запускали на ZXSpectrum И ... )))
Нужно по другому показателю смотреть, что программисы стали больше спать и отдыхать, ну или "залипать" в тиктоках)))
Странный какой-то калькулятор, видимо он считает только цены использования моделей через API ? И не учитывает подписки?
Я не использую через API - это будет сильно дороже. А использую подписку и подключаюсь через Oauth.
OpenAI разрешили использовать подписки для подключения внешних тулов таких как OpenClaw, Codex и т.д.
Отнюдь))) Подписка ChatGPT Plus за $20 в месяц с Codex. Лимиты там большие. Повесил на одном аккаунте и VSCode и OpenClaw и в лимиты дневные и недельные не упираюсь. Сейчас уже пользуюсь моделью GPT 5.4 на ней тоже в лимиты не упираюсь. Ниже в коментах аналогичный опыт люди описывают.
Пользуюсь Кодексом, но 5.3 версии с утра до вечера по работе. Редко выбираю больше 30% лимита и к вечеру ещё процентов 70% остаётся + OpenClaw на нём же висит. Хотя если стаи агентоа пачками запускать, то можно и лимит наверное увидеть)
Где?
Через Codex с подпиской в $20 нормально работает и за димиты не выходит.
Сравните, пожалуйста, ещё Codex от OpenAI и Gemini 3 Pro от Google.
Возможно тут надо создать MCP тулы, которые будут вызывать простые действия для разбора и уже их сможет вызывать ллм и получать от них информацию?
Codex там есть по API ?
Не удивительно, там уже больше 600 000 аккаунтов в списке подключившихся.
Почему не выбрать лучшее из обоих миров и нанять двух?
Для теста можно попробовать эти модели в приложении LM Studio. В нём можно скачать все те-же модели и давно добавили поддержку мульти-модальных моделей и загрузку картинок в чат.
А по поводу компьютера - тут важна не столько скорость видеокарты, сколько объем видеопамяти и чем больше тем лучше.
Ещё пару дней назад появилась
HunyuanOCR - обещают топ по бенчмаркам и размер меньше.