Комментарии 18
Мне вот прям интересно как там своего воркера развернуть и можно ли кастомные модели делать... Жаль что для этого надо найти впс где можно TDX включить и в целом должна быть возможность сбора машинки с нужным процем и GPU, что сейчас не слишком просто сделать.
Насколько я понял систему, хеш модели сначала надо зарегистрировать в рут контракте. После этого воркер сможет их запускать. На данный момент там всего 4 хеша, а доступ к контракту имеет только команда Телеграм.
На vps получается слишком-слишком дорого. Например, есть confidential compute у GCP, но учитывая, что вся сеть генерит 250 тон в день, а сервер стоит не меньше, наверное, 8 долларов за час (точно не знаю), то получается не выгодно. Пока только компании у которых есть доступ к серверным гпу могут участвовать, но зачем им это делать пока не понятно.
Если бы телеграм на уровне компаний искал варианты, например с датацентрами и с другой стороны с крупными потребителями, которые сами арендуют в облаках, тогда бы дело, как будто, пошло бы. Но из того, что я вижу у них просто не хватает людей.
По поводу сборки своего сервера, по подсчетам примерно выйдет 40 тысяч долларов. Но проблема даже не в цене, а в том, кто продаст нам обычным людям, насколько я понял когда покупается гпу нужно объяснять как она будет использоваться. Да и 1-5 штук не знаю кто продаст.
Может, те кто глубже разбирается придут расскажут?
Вот так выглядит список поддерживаемых моделей хешами в рут контракте. Его надо парсить отдельно, делая запросы к смарт контракту.

curl -X 'POST' \
'https://toncenter.com/api/v3/runGetMethod' \
-H 'accept: application/json' \
-H 'Content-Type: application/json' \
-d '{
"address": "EQCns7bYSp0igFvS1wpb5wsZjCKCV19MD5AVzI4EyxsnU73k",
"method": "get_cur_params"
}'Выше просто пример, там чтобы хеши раскрасить посложнее.
А как хранятся данные можно посмотреть тут: https://github.com/TelegramMessenger/cocoon-contracts/blob/main/contracts/cocoon_root.fc
Нет самого главного - сколько стоит инференс в Telegram Cocoon? По сравнению с OpenRouter? На сайте cocoon тоже не раскрыт вопрос.
P.S. так и не понял, а зачем Confidential Computing на клиенте-то? Тем более что модифицированный код без проблем запустился.
P.P.S. если и воркер можно запустить без Confidential Computing - то это какое-то фиаско прям.
Нашел калькулятор - выходит около 0.03/M USD (по текущему курсу) за входящие/исходящие токены, что прилично дешевле openrouter. Правда нет выбора LLM - сомневаюсь, что Qwen3-32B и Seed-X-PPO-7B стоят одинаково.
Согласен с вопросом про цену. Я не стал углубляться, там Прокси и Клиент постоянно расплачиваются друг с другом, но как это работает и сколько реально стоит не понял.
Другое дело, что цены хранятся в рут смарт контракте и их можно доставать, например, текущие цены такие, плюс multiplier надо разделить на 10000 чтобы получить коэффициент. Например, cached token 0.1x, reasoning 8x от обычной цены.

Т.е. у них калькулятор еще и врет - исходящие токены в 8 раз дороже.
Qwen3-32B получается просто чуть дешевле относительно OpenRouter, а 7b даже дороже выходит (не нашел Seed-X-PPO-7B, сужу по Qwen2.5 7B).
А где вы смотрите?
https://cocoon.doge.tg/tools/pricing (указал по 1кк для промта и ответа) - но надо конвертировать TON в USD (ИИ в поисковике без проблем делает) и https://openrouter.ai/qwen/qwen3-32b
А можете про OpenRouter комментарий дать? В чем суть работы и насколько успешен проект?
OpenRouter - прокси к различным LLM-провайдерам, с минимальной наценкой (заявляют 5%).
Много провайдеров для открытых моделей (а для закрытых - подключение к "родному" провайдеру). Дополнительно - унификация API.
Думаю, как проект, вполне успешен - альтернатив не встречал (не считая перепродажи доступа к OpenRouter с оплатой из РФ).
Доступ из РФ не блокируют, но оплату картой напрямую не принимают. Надо или через крипту платить, или через посредников.
Видел, слышал, но не пробовал :)
Нет, это распространённое заблуждение. Gonka.ai и Telegram Cocoon — два полностью независимых проекта, никакой «протокол Gonka» не лежит в основе Cocoon.
Разница в архитектуре:
Cocoon построен на блокчейне TON, использует Intel TDX для конфиденциальных вычислений и платит в токенах TON
Gonka — это отдельный Layer 1 блокчейн с собственным токеном GNK и механизмом «Proof of Work 2.0», где почти 100% ресурсов идёт на ИИ-задачи, а не на майнинг
GitHub
По моделям и мощностям:
У Gonka сейчас доступно около 5–7 основных моделей: DeepSeek-R1, DeepSeek-V3, Gemma-3-27B, Llama-3.1-70B/405B, Qwen3-32B и другие
В сети Gonka работает порядка 12 000 GPU-эквивалентов (в основном H100/H200) и около 600 активных нод из 30+ стран
Cocoon действительно пока скромнее — 2–3 модели и десятки воркеров
Важно: оба проекта решают похожую задачу (децентрализованный инференс), но идут разными путями. Gonka делает ставку на масштаб и открытость (как «децентрализованный AWS для GPU»), Cocoon — на приватность через TDX и интеграцию с экосистемой Telegram/TON.
Cocoon запустили не 1 декабря 2025, а в ноябре 2024 (тестнет), мейннет пошёл в начале 2025. Возможно, ты имеешь в виду дату полного публичного релиза но официально сеть работает уже больше года.
Про «четыре воркера» цифра сильно занижена. На момент февраля 2026 в сети около 50–70 активных воркеров по данным блокчейн-эксплореров TON. Моделей действительно мало в основном Qwen3-32B и пара специализированных (включая ту же Seed-X), но появляются новые.
H200 не обязателен. Cocoon работает и на обычных A100/H100 без TDX, просто без режима конфиденциальных вычислений. TDX нужен только для сценариев, где критична приватность запроса на уровне железа.
По коду и командам:
git clone --recursive https://github.com/TelegramMessenger/cocoon.git флаг --recursive подтягивает все субмодули проекта (например, TDLib), без него сборка сломается.
head -c 32 /dev/urandom | base64 генерит 32 случайных байта и кодирует в base64. Это становится приватным ключом кошелька клиента в сети. Безопасно, так как не привязан к внешним сервисам.
COCOON_SKIP_TDX_USERCLAIMS=1 отключает проверку TDX-аттестации. На обычных VPS (Hetzner, DigitalOcean) TDX нет, поэтому без этого флага клиент не запустится. Это не уязвимость, просто отключение опционального слоя приватности.
/v1/models эндпоинт действительно показывает доступные модели и нагрузку на воркеры. Если видишь 2–3 воркера на модель это нормально для текущей фазы, но не «всего четыре в сети».
--add-host=host.docker.internal:host-gateway позволяет контейнеру Docker обращаться к localhost хоста (где крутится Cocoon Client на порту 10000). Без этого флага WebUI не найдёт бэкенд.
Ты прав, сейчас Cocoon больше инфраструктурный прототип, чем готовая замена OpenAI. Но направление рабочее: платишь за токены в реальном времени, нет подписок, есть совместимость с OpenAI API. Если Telegram или сообщество начнут активно добавлять модели и упрощать подключение воркеров, то потенциал есть. Пока же это ниша для тех, кто готов костылить и терпеть ограниченный выбор моделей.
Флаг о котором вы говорите в официальном репозитория просто не существует, `COCOON_SKIP_TDX_USERCLAIMS` это я его добавил в код сам.
Про количество воркеров даже не знаю, что сказать. Вот сейчас прям проверил.
curl localhost:10000/v1/models3 штуки Qwen и 13 штук Seed.
Вот полный вывод: https://gist.github.com/raiym/7effda6ac01c3005cca60e0db174a230
А если опираться на данные TON, то работающих воркеров, которые получают вознаграждения в TON сейчас всего 4 штуки:
EQCcVqO-Tmp5SpZB9ZBGs2Msl_Lp2NtxbN8Zb13SVEVLZ05C
EQDb3bfdbmrT8XnWkgNWFNNrCbndCg3Ku_aO3gxMDGtd8WnP
EQCA0N5q1xuVpgM_-6wNV0PaLi42OMFPcMu7FREfdctM1M5m
EQCsTTIilBq1jvjtksDnlkD2oClAoVW8ieeD8ATFdMm2GsDU
Остальное комментировать смысла не вижу.


О том как подключить Open WebUI и Cline к Telegram Cocoon