Comments 29
off\Складывалось впечатление, что на русском он больше не пишет.
Когда планируется exit scam?
Интересно, как они решили проблему вычисления над зашифрованными данными
Cудя по поисанию на сайте, там только llm inference. Обучать на этих мощностях модельки нельзя
Для обучения llm нужно много gpu с единой внутренней сетью. Производительность вычислений зависит прямо от самого слабого звена (там синхронный режим). И если проблемы на одной gpu или сеть работает не идеально, то это может в разы снижать скорость вычислений. Поэтому для обучения llm нужны специальные кластеры, очень определенным образом спроектированные и с очень быстрой и надежной сетью. А следовательно, именно для обучения llm проект Павла точно не подойдет. Инференс — другое дело, там все проще.
каким образом будет обеспечиваться более низкая цена? вряд ли частному владельцу GPU электричество достаётся по более низкой цене, чем крупным корпорациям у которых могут быть свои генерирующие мощности. к тому же бытовая видюха тратит больше энергии, на те же вычисления, относительно профессиональной.
Тут вопрос в том, какую маржу закладывают провайдеры.
к тому же бытовая видюха
Дурову не нужны твои бытовые видюхи
Бытовая видюха H100+ ?
Так и думал, опять крипта.
а первую иконку реакций почему закрасили серым?
не находите, что она была странной?
Писал об этом, паста без ссылки, чтоб без рекламных подозрений:
Крипто-прогрев крипто-гоев: как криптанам продают Какун под видом децентрализованного распределённого multi-GPU-CC кластера
Тут ПалВалерич уважаемый со сцены Blockchain Life рассказал о проекте Cocoon.
Типа, сеть распределённых GPU-вычислений с акцентом на конфиденциальность. Запуск заявлен на ноябрь 2025.
Ну-ка ну-ка что там?
1) Железо
Действительно, у NVIDIA уже есть поддержка confidential computing (CC) в Hopper H100 и Blackwell.
Действительно, у NVIDIA есть вайтпейперы и гайды по деплою. Это индустриальный тренд, но не изобретение Cocoon.
Но в Hopper у CC-режимов есть ограничения: в вайтпейпере отмечено, что multi-GPU-CC пока ограничен, а часть возможностей переносится в Blackwell.
Если у Cocoon нет зрелой истории (кто-то думает, что есть?) про аттестацию, цепочку доверия и периметр I/O, то кое-кто просто чешет языком.
2) Полезная работа
Верификация полезной работы в децентрализованной сети — камень преткновения и узкое горлышко:
1. Bittensor стимулирует модели через on-chain экономику и оценку качества.
2. Render решает более простую задачу офлайн-рендеринга
3. Gensyn строит протокол проверки ML-работы.
Это сложные, долгие истории, и каждая комания публично документирует механизмы верификации.
Что предложит Какун, ветку?
3) Безопасность
Децентрализованные GPU-сети уже ловили фальшивые репорты о «миллионах» доступных GPU, спуфинг и фарминг наград.
Если у Какуна нет (есть же, да? 😆) прозрачного анти-фрода, аудита и телеметрии, то боты сожрут все награды.
4) Блокчейн TON
TON может выступать только как слой платежей или учета, но ИИ-данные, веса сеток и градиенты на блокчейн не попадают.
По идее, ценность Cocoon должна заключаться в оффчейн-оркестрации, безопасности, аттестации, SLA и планировщике заданий.
Но об этом почему-то ни слова.
Короче:
Возможен ли Какун технически? Да.
Это инновация? Нет.
Нужен ли TON для Какуна? Нет.
Решены ли ключевые вопросы? Нет.
Помним и об истории инноваций и интеграций TON + Telegram: воллет, мини-аппы, хомяк, подарки 😚
Такие дела.
Интересно сравнить цены за месяц использования: например, чтобы поддерживать модель gpt-ogg-120b через какуна и без него?

Как-то была статья на хабре про домашний ядерный реактор от ENRON https://habr.com/ru/news/873036/?ysclid=mimtozuiiz99406166
Интересная штука шутка!
Ну и майнинг 2.0 Очередной развод, или успех от сдачи в аренду мощностей GPU? Будет видно...
Учитывая ограничения вводимые ChatGPT и прочими. Похоже у Cocoon есть, над чем преобладать!
Ну, это лучше, чем нарисованными папахами торговать.

Павел Дуров объявил о запуске децентрализованной сети для ИИ-вычислений