Pull to refresh
3
0,7
Rating
1
Subscribers
Send message

Судя по тому что все квн ведут в этой самый западный цифровой гулаг - да, другое ;)

Зачем тут xray если telemt имеет свой fake-tls? Можно просто порт пробросить.

А у кого сейчас иначе? Вроде все на чат забили.

GLM 5 ни разу не клод конечно, но пока единственный китаец который мне нормально код писал.

AmneziaVPN Xray тоже уязвим из-за прокси. Это сложно пофиксить? Даже если сокс не закрыть, можно генерить на него пароль при каждом запуске.

Это все от эффекта новизны и чрезмерной веры в сми где он что-то там уронил. R1 всегда был тупым, можете сами его взять сейчас и потестить https://openrouter.ai/deepseek/deepseek-r1 да и 3.2 тоже любит галлюцинировать и творить фигню, GLM намного лучше.

Если вы про их чат, но там вроде уже лайт v4 или типа того, которая может быть тупее v3.2.

$0 (лимиты: ~20 req/min, ~200 req/day)

If you have purchased less than 10 credits, you’re limited to 50 :free model requests per day. https://openrouter.ai/docs/api/reference/limits

Еще ollama cloud дает бесплатный апи с лимитами на акк, ставить их софт необязательно https://ollama.com/pricing

Вообще ожидаемо, их еще и на маркетплейсах реселлят через прокси. Вопрос в том запрещено или будут детектить и банить как гугл?

PS: openai и githib copilot меня пока не забанили, но подписка на копилот нифига не выгодная.

GLM 4.7 5 5.1 выпустили с релиза 3.2. Как бы этот дипсик 4.0 не вышел уже устаревшим :)

На десктопе в 6.7.2 починили.

Как я понял, он описал сигнатуры и логику через одну иишку и сгенерил по ним код на питоне через другую, поэтому кода там стало сильно меньше и не все возможности есть. Так что сам код иишка писавшая на питоне не видела.

Скорее всего проблема в самой телеге, нужно ждать когда они пофиксят, вообще ни один режим в MTProto не работает. При этом все остальное, включая ss, так же работает. Телега могла бы просто ss интегрировать.

Их конкурентное преимущество это модели, а не CC у которой так-то вагон аналогов и не только консольных, да и устареет оно быстро. Почти все провайдеры поддерживают апи антропика и позволяют юзать любые модели, у z.ai на этом вся бизнес-модель построена.

Будет круто если прокатит, можно будет вылечить опенсорс от GPL :)

переписал всю ключевую логику Claude Code с нуля – сначала на Python, а спустя несколько часов и на Rust.

Лица ллм-не-ускоряет-разработку к осмотру.

Если они не будут вкладываться в разработку, их модели быстро устареют и станут никому не нужны. Это чистый опенсорс-прикол, но не работает как с софтом - разработка моделей слишком дорогая, банально дорогое обучение.

Имхо, у такого подхода нет будущего - только если модель будет очень популярная у корп и они ее донатами смогут спонсировать. Или если это не основной продукт на котором ты зарабатываешь, как хром или андроид у гугла, тогда можно и опенсорсить - почему бы и не нет. Но у них то ничего кроме ллмки и нет :)

Веса открытые - на инференсе зарабатывают другие.

Может там инфраструктура стоит дороже, продадут память с ссд и окупят все расходы.

Information

Rating
2,419-th
Registered
Activity