Обновить
128K+
82
Иван Никитин@python_leader

Passionate Developer.

66,6
Рейтинг
200
Подписчики
Отправить сообщение

SubQ: первая LLM с контекстом в 12 млн токенов

Время на прочтение1 мин
Охват и читатели4.7K

Компания Subquadratic выпустила модель SubQ 1M-Preview — первую, по их словам, LLM на полностью субквадратичной архитектуре. Речь про SSA (Subquadratic Sparse Attention): вместо того чтобы сравнивать каждый токен с каждым (O(n²)), механизм выбирает только релевантные позиции на основе содержимого. Вычислительная сложность растёт линейно.

Читать далее

Gemma 4 стала быстрее в 3 раза без потери качества

Время на прочтение1 мин
Охват и читатели6.6K

Google открыла веса вспомогательных моделей для всей линейки Gemma 4 — E2B, E4B, 26B MoE и 31B Dense. Они доступны на Hugging Face и Kaggle под Apache 2.0 и уже работают с transformers, MLX, vLLM, SGLang и Ollama.

Стандартная генерация токенов устроена неэффективно: процессор большую часть времени тратит не на вычисления, а на перекачку весов модели из памяти. Из-за этого даже мощные GPU простаивают, пока генерируется один токен.

Читать далее

Copilot сделает Claude Opus в 27 раз дороже

Время на прочтение1 мин
Охват и читатели15K

С 1 июня GitHub переводит Copilot на usage-based оплату. Автодополнения кода остаются без лимитов, всё остальное — чат, агентные режимы, code review — тратит GitHub AI Credits по токенным расценкам.

Базовая цена подписки не меняется: Pro $10/мес, Pro+ $39. Кредиты включены на ту же сумму.

Для годовых планов: Sonnet 4.5 — с 1x до 6x, Sonnet 4.6 — до 9x, Opus 4.6 и 4.7 — до 27x. Годовые планы постепенно выводят из обращения. После окончания текущего годового периода пользователя переведут на Free или предложат перейти на monthly план. 

Читать далее

DeepSeek выпустил V4 — открытую модель с контекстом в миллион токенов

Время на прочтение1 мин
Охват и читатели12K

Сегодня DeepSeek опубликовали две новые модели: V4-Pro и V4-Flash. Обе работают по архитектуре Mixture-of-Experts, веса доступны на Hugging Face под MIT-лицензией.

V4-Pro содержит 1,6 триллиона параметров. Контекстное окно — один миллион токенов. При этом модель потребляет около 27% вычислений от того, что требовалось предшественнику DeepSeek-V3 при аналогичном контексте.

V4-Flash меньше — 284 миллиарда параметров с 13 активными — и ещё экономичнее: примерно 10% FLOPs и 7% KV-cache по сравнению с V3. Контекст тот же — миллион токенов.

Читать далее

OpenAI выпустили GPT-5.5: пишет код дешевле предшественника

Время на прочтение1 мин
Охват и читатели12K

GPT-5.5 — это следующая модель после GPT-5.4, ориентированная прежде всего на агентную работу: многошаговые задачи, где модель планирует, использует инструменты и доводит работу до конца без постоянного участия пользователя.

На Terminal-Bench 2.0 (сложные командно-строковые сценарии с планированием и итерациями) модель показала 82.7% против 75.1% у GPT-5.4. На SWE-Bench Pro, который оценивает решение реальных GitHub-задач, — 58.6%. Примечательно, что этих результатов GPT-5.5 достигает при меньшем количестве токенов, чем предшественник.

Читать далее

Anthropic убирает Claude Code из плана Pro за 20$

Время на прочтение1 мин
Охват и читатели44K

Anthropic обновили страницу с тарифами: Claude Code теперь доступен только начиная с Max 5x за $100/месяц. Pro за $20 его больше не включает. Официального анонса не было.

Amol Avasare из Anthropic объяснил логику в треде на X. Год назад Max проектировался под интенсивный чат — без Claude Code, без Cowork, без долгих асинхронных агентов. После выхода Opus 4 всё изменилось: агентные сценарии стали повседневными, нагрузка на подписчика выросла, а текущие планы под это не рассчитывались.

Читать далее

Kimi выпустили открытую модель K2.6 для долгих задач по программированию

Время на прочтение1 мин
Охват и читатели10K

Moonshot AI представила Kimi K2.6 — открытую модель, заточенную под длинные задачи в программировании и агентные сценарии. В компании утверждают, что новая версия лучше справляется с многошаговой работой: может дольше удерживать контекст, чаще корректно вызывать инструменты и эффективнее координировать несколько субагентов.

Читать далее

Бесплатная Stealth-модель оказалась в топе OpenRouter за 72 часа

Время на прочтение1 мин
Охват и читатели11K

13 апреля на OpenRouter появилась Elephant Alpha — 100-миллиардная языковая модель без имени автора, пресс-релиза и маркетинга. Через несколько дней она заняла первое место в Trending-ранкинге платформы, обойдя платные модели по реальному потреблению токенов.

OpenRouter описывает её как модель, «ориентированную на интеллектуальную эффективность». Контекст — 256K токенов, максимальный вывод — 32K, скорость — около 50–65 токенов в секунду. Поддерживает function calling и structured output. Цена — $0 за миллион токенов.

Читать далее

GPT-5.4 и Opus 4.6 воспроизвели находки закрытой модели Mythos от Anthropic

Время на прочтение1 мин
Охват и читатели9.6K

Anthropic заявила, что их закрытая модель Mythos находит уязвимости, недоступные публичным инструментам. Исследователи из Vidoc проверили это.

В начале апреля Anthropic опубликовала результаты проекта Mythos: специализированная модель нашла баги в FreeBSD, OpenBSD, FFmpeg, Botan и wolfSSL — включая 27-летний баг в TCP-стеке OpenBSD. Вместе с анонсом Project Glasswing это подавалось как аргумент за то, что доступ к новой frontier-модели должен быть закрытым и подконтрольным.

Команда Vidoc Security взяла те же публично запатченные примеры и прогнала их через GPT-5.4 и Claude Opus 4.6 в opencode — опенсорсном агенте. Без внутреннего стека Anthropic, без доступа к «уникальной» модели.

Читать далее

Anthropic выпустили Claude Opus 4.7

Время на прочтение2 мин
Охват и читатели15K

Сегодня Anthropic объявила о выходе Claude Opus 4.7. Модель стала заметным шагом вперёд в программировании: в тестах на реальных задачах Cursor зафиксировал рост с 58% до 70%, CodeRabbit отметил улучшение recall на 10% при стабильной точности, а Rakuten — трёхкратный рост решённых production-задач по сравнению с Opus 4.6.

Читать далее

Вышел Cursor 3.1: параллельные агенты в одном окне и новый голосовой ввод

Время на прочтение1 мин
Охват и читатели5.4K

Команда Cursor выпустила обновление 3.1, которое сосредоточено вокруг Agents Window.

Главное добавление — tiled layout: окно с агентами теперь можно разбить на панели, запускать несколько агентов параллельно и сравнивать их вывод рядом. Настройки раскладки сохраняются между сессиями.

Читать далее

Anthropic научили Sonnet консультироваться с Opus

Время на прочтение1 мин
Охват и читатели7.7K

Anthropic выпустили advisor tool — инструмент, который позволяет запустить Opus как советника внутри задачи, которую выполняет Sonnet или Haiku.

Работает так: Sonnet ведёт задачу от начала до конца — вызывает инструменты, читает результаты, двигается к решению. Когда упирается в решение, которое не может принять сам, обращается к Opus. Тот смотрит на контекст, возвращает план или корректировку — и Sonnet продолжает.

Читать далее

Anthropic собирается разрабатывать собственные ИИ-чипы

Время на прочтение1 мин
Охват и читатели6K

Anthropic рассматривает разработку собственных чипов — пишет Reuters со ссылкой на три источника

Планы пока на ранней стадии: выделенной команды нет, конкретной архитектуры тоже. Сейчас Anthropic использует TPU от Google и чипы Amazon для обучения и запуска Claude. На этой неделе компания подписала долгосрочный контракт с Google и Broadcom (который как раз и проектирует TPU).

Читать далее

Один из сооснователей GitHub поднял $17M инвестиций на то, чтобы заменить Git

Время на прочтение1 мин
Охват и читатели12K

Скотт Чакон, который помогал создавать GitHub, в 2022 году запустил GitButler — и сейчас закрыл раунд Series A от a16z. Идея простая: за 20 лет Git почти не изменился, а мир разработки изменился кардинально.

Сегодня команды используют Git, чтобы координировать работу агентов, параллельные ветки нескольких разработчиков и асинхронные правки. Но сам инструмент проектировался под совершенно другую модель: один человек, один терминал, одна ветка, линейный поток изменений.

Читать далее

Anthropic показали Claude Mythos Preview — и сразу заявили: в паблик модель выпускать не будут

Время на прочтение1 мин
Охват и читатели20K

Anthropic запустили Project Glasswing — закрытую инициативу по defensive security вместе с AWS, Apple, Google, Microsoft, NVIDIA, Cisco, CrowdStrike, JPMorganChase, Linux Foundation и другими.

Внутри проекта участникам дали доступ к Claude Mythos Preview — новой frontier-модели, которую Anthropic не собираются выпускать в общий доступ.

Читать далее

Z.ai выпустили GLM-5.1 — open-source модель, заточенную под долгие агентные задачи

Время на прочтение2 мин
Охват и читатели11K

Z.ai выпустили GLM-5.1 — новую флагманскую модель под MIT-лицензией, ориентированную на агентные инженерные задачи. По SWE-Bench Pro она набирает 58.4% против 57.3% у Claude Opus 4.6 и 57.7% у GPT-5.4. На NL2Repo (генерация репозиториев) GLM-5.1 обходит GLM-5 с 35.9% до 42.7%.

Но интереснее другое. Большинство моделей ведут себя одинаково: быстро берут низко висящие плоды, потом останавливаются. Дополнительное время не помогает — стратегия исчерпана. GLM-5.1 проектировали с прицелом на другое поведение.

Читать далее

Telegram снял ограничение на общение ботов между собой

Время на прочтение1 мин
Охват и читатели14K

Исторически ботам было запрещено общаться между собой.

Теперь они могут писать друг другу в чатах (через упоминание /command@OtherBot или реплай) и через Business Mode. Достаточно, чтобы у одного из ботов был включён Bot-to-Bot Communication Mode в BotFather.

Читать далее

Alibaba выкатили Qwen3.6-Plus — новый флагман серии Qwen

Время на прочтение1 мин
Охват и читатели12K

Модель появилась на OpenRouter в ночь с 30 на 31 марта как бесплатный превью без анонса и пресс-релиза: один твит от исследователя Qwen с таблицей бенчмарков — и всё. За первые два дня через неё прошло 400 млн completion-токенов в ~400 тыс. запросах.

Контекстное окно по умолчанию — 1 млн токенов. На Terminal-Bench 2.0 модель набрала 61.6 против 59.3 у Claude 4.5 Opus, на OmniDocBench v1.5 — 91.2 против 87.7. На SWE-bench Verified пока отстаёт: 78.8 против 80.9 у Claude. 

Читать далее

Anthropic случайно слили исходники Claude Code

Время на прочтение1 мин
Охват и читатели13K

Anthropic случайно слили исходный код Claude Code через файл source map в npm-пакете.

Утечку обнаружил исследователь Chaofan Shou — в публичном пакете оказался .map-файл с полным TypeScript-кодом. Это не взлом, просто ошибка при сборке.

Читать далее

Qwen3.6 Plus Preview появился на OpenRouter бесплатно

Время на прочтение1 мин
Охват и читатели11K

Сегодня Alibaba выпустила Qwen3.5-Omni — мультимодальную модель, которая принимает текст, изображения, аудио и видео, а на выходе генерирует текст и речь одновременно. Три размера: Plus, Flash, Light. Контекст до 256k токенов, больше 10 часов аудиовхода.

И сегодня же на OpenRouter появился Qwen3.6 Plus Preview — следующая версия после 3.5 — бесплатно, с контекстом 1M токенов. Условие одно: промпты и ответы собираются для дообучения модели.

Читать далее
1
23 ...

Информация

В рейтинге
124-й
Дата рождения
Зарегистрирован
Активность

Специализация

Бэкенд разработчик
Ведущий
Python
SQL
Git
ООП
PostgreSQL
Docker
Django