Обновить

Комментарии 18

Мне вот прям интересно как там своего воркера развернуть и можно ли кастомные модели делать... Жаль что для этого надо найти впс где можно TDX включить и в целом должна быть возможность сбора машинки с нужным процем и GPU, что сейчас не слишком просто сделать.

Насколько я понял систему, хеш модели сначала надо зарегистрировать в рут контракте. После этого воркер сможет их запускать. На данный момент там всего 4 хеша, а доступ к контракту имеет только команда Телеграм.

На vps получается слишком-слишком дорого. Например, есть confidential compute у GCP, но учитывая, что вся сеть генерит 250 тон в день, а сервер стоит не меньше, наверное, 8 долларов за час (точно не знаю), то получается не выгодно. Пока только компании у которых есть доступ к серверным гпу могут участвовать, но зачем им это делать пока не понятно.

Если бы телеграм на уровне компаний искал варианты, например с датацентрами и с другой стороны с крупными потребителями, которые сами арендуют в облаках, тогда бы дело, как будто, пошло бы. Но из того, что я вижу у них просто не хватает людей.

По поводу сборки своего сервера, по подсчетам примерно выйдет 40 тысяч долларов. Но проблема даже не в цене, а в том, кто продаст нам обычным людям, насколько я понял когда покупается гпу нужно объяснять как она будет использоваться. Да и 1-5 штук не знаю кто продаст.

Может, те кто глубже разбирается придут расскажут?

Вот так выглядит список поддерживаемых моделей хешами в рут контракте. Его надо парсить отдельно, делая запросы к смарт контракту.

curl -X 'POST' \
  'https://toncenter.com/api/v3/runGetMethod' \
  -H 'accept: application/json' \
  -H 'Content-Type: application/json' \
  -d '{
  "address": "EQCns7bYSp0igFvS1wpb5wsZjCKCV19MD5AVzI4EyxsnU73k",
  "method": "get_cur_params"
}'

Выше просто пример, там чтобы хеши раскрасить посложнее.

А как хранятся данные можно посмотреть тут: https://github.com/TelegramMessenger/cocoon-contracts/blob/main/contracts/cocoon_root.fc

Нет самого главного - сколько стоит инференс в Telegram Cocoon? По сравнению с OpenRouter? На сайте cocoon тоже не раскрыт вопрос.

P.S. так и не понял, а зачем Confidential Computing на клиенте-то? Тем более что модифицированный код без проблем запустился.
P.P.S. если и воркер можно запустить без Confidential Computing - то это какое-то фиаско прям.

Нашел калькулятор - выходит около 0.03/M USD (по текущему курсу) за входящие/исходящие токены, что прилично дешевле openrouter. Правда нет выбора LLM - сомневаюсь, что Qwen3-32B и Seed-X-PPO-7B стоят одинаково.

Согласен с вопросом про цену. Я не стал углубляться, там Прокси и Клиент постоянно расплачиваются друг с другом, но как это работает и сколько реально стоит не понял.

Другое дело, что цены хранятся в рут смарт контракте и их можно доставать, например, текущие цены такие, плюс multiplier надо разделить на 10000 чтобы получить коэффициент. Например, cached token 0.1x, reasoning 8x от обычной цены.

Т.е. у них калькулятор еще и врет - исходящие токены в 8 раз дороже.
Qwen3-32B получается просто чуть дешевле относительно OpenRouter, а 7b даже дороже выходит (не нашел Seed-X-PPO-7B, сужу по Qwen2.5 7B).

А где вы смотрите?

https://cocoon.doge.tg/tools/pricing (указал по 1кк для промта и ответа) - но надо конвертировать TON в USD (ИИ в поисковике без проблем делает) и https://openrouter.ai/qwen/qwen3-32b

Понял, спасибо.

По поводу этой панели, я, кстати, не понял как она работает, так как пересечений нет.

А можете про OpenRouter комментарий дать? В чем суть работы и насколько успешен проект?

OpenRouter - прокси к различным LLM-провайдерам, с минимальной наценкой (заявляют 5%).
Много провайдеров для открытых моделей (а для закрытых - подключение к "родному" провайдеру). Дополнительно - унификация API.

Думаю, как проект, вполне успешен - альтернатив не встречал (не считая перепродажи доступа к OpenRouter с оплатой из РФ).
Доступ из РФ не блокируют, но оплату картой напрямую не принимают. Надо или через крипту платить, или через посредников.

крутой проект, получается агрегатор.

Кстати, а насчет gonka.ai - их протокол в основе кокона лежит - не смотрели? Там гораздо больше карт и моделей вроде должно быть? @raiym

Видел, слышал, но не пробовал :)

Нет, это распространённое заблуждение. Gonka.ai и Telegram Cocoon — два полностью независимых проекта, никакой «протокол Gonka» не лежит в основе Cocoon.

Разница в архитектуре:

  • Cocoon построен на блокчейне TON, использует Intel TDX для конфиденциальных вычислений и платит в токенах TON

  • Gonka — это отдельный Layer 1 блокчейн с собственным токеном GNK и механизмом «Proof of Work 2.0», где почти 100% ресурсов идёт на ИИ-задачи, а не на майнинг

    GitHub

По моделям и мощностям:

  • У Gonka сейчас доступно около 5–7 основных моделей: DeepSeek-R1, DeepSeek-V3, Gemma-3-27B, Llama-3.1-70B/405B, Qwen3-32B и другие

  • В сети Gonka работает порядка 12 000 GPU-эквивалентов (в основном H100/H200) и около 600 активных нод из 30+ стран

  • Cocoon действительно пока скромнее — 2–3 модели и десятки воркеров

Важно: оба проекта решают похожую задачу (децентрализованный инференс), но идут разными путями. Gonka делает ставку на масштаб и открытость (как «децентрализованный AWS для GPU»), Cocoon — на приватность через TDX и интеграцию с экосистемой Telegram/TON.

  • Cocoon запустили не 1 декабря 2025, а в ноябре 2024 (тестнет), мейннет пошёл в начале 2025. Возможно, ты имеешь в виду дату полного публичного релиза но официально сеть работает уже больше года.

  • Про «четыре воркера» цифра сильно занижена. На момент февраля 2026 в сети около 50–70 активных воркеров по данным блокчейн-эксплореров TON. Моделей действительно мало в основном Qwen3-32B и пара специализированных (включая ту же Seed-X), но появляются новые.

  • H200 не обязателен. Cocoon работает и на обычных A100/H100 без TDX, просто без режима конфиденциальных вычислений. TDX нужен только для сценариев, где критична приватность запроса на уровне железа.

По коду и командам:

git clone --recursive https://github.com/TelegramMessenger/cocoon.git флаг --recursive подтягивает все субмодули проекта (например, TDLib), без него сборка сломается.

head -c 32 /dev/urandom | base64 генерит 32 случайных байта и кодирует в base64. Это становится приватным ключом кошелька клиента в сети. Безопасно, так как не привязан к внешним сервисам.

COCOON_SKIP_TDX_USERCLAIMS=1 отключает проверку TDX-аттестации. На обычных VPS (Hetzner, DigitalOcean) TDX нет, поэтому без этого флага клиент не запустится. Это не уязвимость, просто отключение опционального слоя приватности.

/v1/models эндпоинт действительно показывает доступные модели и нагрузку на воркеры. Если видишь 2–3 воркера на модель это нормально для текущей фазы, но не «всего четыре в сети».

--add-host=host.docker.internal:host-gateway позволяет контейнеру Docker обращаться к localhost хоста (где крутится Cocoon Client на порту 10000). Без этого флага WebUI не найдёт бэкенд.

Ты прав, сейчас Cocoon больше инфраструктурный прототип, чем готовая замена OpenAI. Но направление рабочее: платишь за токены в реальном времени, нет подписок, есть совместимость с OpenAI API. Если Telegram или сообщество начнут активно добавлять модели и упрощать подключение воркеров, то потенциал есть. Пока же это ниша для тех, кто готов костылить и терпеть ограниченный выбор моделей.

Флаг о котором вы говорите в официальном репозитория просто не существует, `COCOON_SKIP_TDX_USERCLAIMS` это я его добавил в код сам.

Про количество воркеров даже не знаю, что сказать. Вот сейчас прям проверил.

curl localhost:10000/v1/models

3 штуки Qwen и 13 штук Seed.

Вот полный вывод: https://gist.github.com/raiym/7effda6ac01c3005cca60e0db174a230

А если опираться на данные TON, то работающих воркеров, которые получают вознаграждения в TON сейчас всего 4 штуки:

  1. EQCcVqO-Tmp5SpZB9ZBGs2Msl_Lp2NtxbN8Zb13SVEVLZ05C

  2. EQDb3bfdbmrT8XnWkgNWFNNrCbndCg3Ku_aO3gxMDGtd8WnP

  3. EQCA0N5q1xuVpgM_-6wNV0PaLi42OMFPcMu7FREfdctM1M5m

  4. EQCsTTIilBq1jvjtksDnlkD2oClAoVW8ieeD8ATFdMm2GsDU

Остальное комментировать смысла не вижу.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации