Pull to refresh
3
Send message

Немного не в тему статьи, но в тему ПК для Апокалипсиса и сжатия страниц и википедии, вспомнился такой древний бенчмарк архиваторов от Matt Mahoney который до сих пор обновляется. Там собраны все лучшие известные архиваторы и сделаны бенчмарки на 1GB текстов Английской Википедии. Есть замеры времени сжатия и распаковки, использования оперативки и размера архиватора. Тем кто захочет сжимать Википедию возможно будет полезно)

https://mattmahoney.net/dc/

Я для этих целей использую KaraKeep. Это self-hosted bookmark приложение, которое позволяет сохранять ещё и текст и искать по нему и создаёт саммари и тэги для страниц с помощью ИИ. И есть режим чтения сохранённого текста. Да, бывает часто что страницы и информация пропадают и это позволяет сохранить информацию, не всё, но хотя бы основной текст сайта.

Похоже быстрее будет несколько раз спросить Qwen и поправить ошибки если будут чем один ответ дождаться от glm.

Если делать такой бенчмарк(сравнение), то ещё с учётом скорости ответов надо.

Можно ещё Qwen3.5 27B или 35B попробовать.

Ну если взять llm-ку которую запускали на ZXSpectrum И ... )))

Нужно по другому показателю смотреть, что программисы стали больше спать и отдыхать, ну или "залипать" в тиктоках)))

Странный какой-то калькулятор, видимо он считает только цены использования моделей через API ? И не учитывает подписки?
Я не использую через API - это будет сильно дороже. А использую подписку и подключаюсь через Oauth.
OpenAI разрешили использовать подписки для подключения внешних тулов таких как OpenClaw, Codex и т.д.

Отнюдь))) Подписка ChatGPT Plus за $20 в месяц с Codex. Лимиты там большие. Повесил на одном аккаунте и VSCode и OpenClaw и в лимиты дневные и недельные не упираюсь. Сейчас уже пользуюсь моделью GPT 5.4 на ней тоже в лимиты не упираюсь. Ниже в коментах аналогичный опыт люди описывают.

Пользуюсь Кодексом, но 5.3 версии с утра до вечера по работе. Редко выбираю больше 30% лимита и к вечеру ещё процентов 70% остаётся + OpenClaw на нём же висит. Хотя если стаи агентоа пачками запускать, то можно и лимит наверное увидеть)

Через Codex с подпиской в $20 нормально работает и за димиты не выходит.

Сравните, пожалуйста, ещё Codex от OpenAI и Gemini 3 Pro от Google.

Возможно тут надо создать MCP тулы, которые будут вызывать простые действия для разбора и уже их сможет вызывать ллм и получать от них информацию?

Не удивительно, там уже больше 600 000 аккаунтов в списке подключившихся.

Почему не выбрать лучшее из обоих миров и нанять двух?

Для теста можно попробовать эти модели в приложении LM Studio. В нём можно скачать все те-же модели и давно добавили поддержку мульти-модальных моделей и загрузку картинок в чат.

А по поводу компьютера - тут важна не столько скорость видеокарты, сколько объем видеопамяти и чем больше тем лучше.

Ещё пару дней назад появилась

HunyuanOCR - обещают топ по бенчмаркам и размер меньше.

Information

Rating
6,092-nd
Registered
Activity