
Привет, это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий.
Меня зовут Вандер, и каждую неделю я обозреваю главные новости о нейросетях и ИИ.
Неделя насыщенная: Google выпустила Gemma 4, Anthropic дважды засветилась с утечками c Mythos, Capybara и исходниками Claude Code. Cursor теперь делают упор на ИИ-агентов, а Netflix неожиданно врывается в ИИ-гонку.
Всё самое важное — в одном месте. Поехали!
📋 В этом выпуске:
🧠 Модели и LLM
Gemma 4 от Google: четыре открытые модели
Qwen 3.6-Plus от Alibaba — дышит в спину Claude Opus 4.5
Grok 5 на 6 трлн параметров: бета в апреле
Claude Mythos и Capybara: Anthropic тестирует tier мощнее Opus
Qwen без цензуры — комьюнити-порт с нулевым процентом отказов
🎨 Генеративные нейросети
Wan 2.7-Image от Alibaba
Netflix VOID: убирает объекты на видео
🔧 AI-инструменты и платформы
Microsoft Critique в Copilot — одна модель пишет, другая проверяет
Утечка кода Claude Code
Computer Use в Claude Code
Cursor 3.0 и переход к agent-first интерфейсу
🧩 AI в обществе и исследованиях
Основатель GitLab победил рак с помощью ИИ
Эмоции у Claude? Исследование Anthropic
🧠 Модели и LLM
❯ Gemma 4 от Google — четыре открытые модели

Google выпустила линейку Gemma 4. Впервые в истории у них лицензия Apache 2.0: можно дообучать, перепаковывать и использовать в коммерческих продуктах без ограничений. Все модели поддерживают 140+ языков.
В линейке четыре модели.
E2B и E4B — для смартфонов и мелких гаджетов, понимают текст, картинки и голос, работают полностью офлайн
26B A4B — MoE-архитектура: 128 экспертов, активно ~3,8B параметров, скорость как у 4B-модели
31B Dense — флагман для ПК и серверов, контекст 256K токенов
По бенчмаркам у 31B: AIME 2026 — 89,2%, LiveCodeBench — 80,0%, GPQA Diamond — 84,3%. На Arena AI текстовый чат-рейтинг — третье место среди открытых моделей, обгоняет крупные модели.
🔗 Блог Google 🔗 Карточка модели DeepMind 🔗 Веса на Hugging Face
❯ Qwen 3.6-Plus от Alibaba — дышит в спину Claude Opus 4.5

Alibaba выпустила Qwen 3.6-Plus, заточенную под агентные задачи и кодинг.
Контекстное окно — 1 млн токенов, на выходе до 65К токенов. По сравнению с Qwen 3.5 убрали overthinking: меньше токенов на рассуждения.
По бенчмаркам картина неоднородная.
На Terminal-Bench 2.0 — 61,6 против 59,3 у Claude Opus 4.5.
На SWE-bench Verified пока проигрывает: 78,8 против 80,9. Ранние тесты показывают скорость генерации примерно в 2–3 раза выше Claude Opus 4.6 на агентных задачах.
Попробовать бесплатно можно на OpenRouter и в чате. Цены на Alibaba Model Studio: вход — $0,5–2/млн токенов, выход — $3–6/млн.
🔗 Официальный анонс Qwen 🔗 Бесплатно на OpenRouter 🔗 Веб-чат Qwen
❯ Grok 5 на 6 трлн параметров: бета ожидается в апреле

xAI готовит Grok 5, построенную на ~3 трлн параметров. Илон Маск обещал все 6 трлн, но в официальных спецификациях про это ничего нет. Компания подтвердила, что модель выйдет в 2026 году.
Сроки публичной беты — «март–апрель 2026». Пока ни дата, ни точный размер модели официально не объявлены, поэтому ждём.
🔗 Разбор Grok 5 и 6 трлн параметров
❯ Утечка Claude Mythos и Capybara — модели мощнее Opus

В конце марта в сеть утёк черновой блог Anthropic с описанием новой модели. Компания подтвердила: да, такая модель существует и сейчас проходит закрытое тестирование.
Официальное название — Capybara, релизное имя — Mythos. По описанию из черновика это новый уровень, выше Opus, Sonnet и Haiku. В кодинге, академическом reasoning и кибербезопасности уделывает Opus 4.6
Именно кибербезопасность — главная причина, по которой модель не выйдет в открытый доступ в ближайшее время. Mythos находит уязвимости в коде быстрее, чем разработчики успевают выпускать патчи. Первыми доступ получат профильные безопасники — чтобы успели закрыть дыры до того, как инструмент окажется в чужих руках.
Цифра в 10 трлн параметров ходит по сети, но пока Anthropic её не подтверждала.
🔗 Fortune — анонс утечки и реакция Anthropic 🔗 Euronews — о рисках кибербезопасности
❯ Qwen без цензуры — комьюнити-порт с нулевым процентом отказов

На Hugging Face вышла Qwen3.5-9B-Uncensored-HauhauCS-Aggressive — это форк официальной Qwen3.5-9B, из которой вырезали цензуру.
В тестах автора — 0 отказов на 465 провокационных запросов. При этом она всё равно может добавить дисклеймер в конце ответа, но задачу выполнит. Вся ответственность за результат на пользователях.
Технически: 9B параметров, нативный контекст от 262K до 1M, поддержка текста, изображений и видео, 201 язык. В формате GGUF весит от 5 до 17 ГБ — запускается в Ollama, LM Studio, llama.cpp. За первый месяц — более 500K скачиваний.
🔗 Qwen3.5-9B-Uncensored на Hugging Face 🔗 Reddit-анонс релиза
🎨 Генеративные нейросети
❯ Wan 2.7-Image от Alibaba — генерация и редактирование в одной модели

Alibaba выпустила генератор изображений Wan 2.7-Image. Всё в одном: text-to-image, image-to-image и редактирование.
Главное:
До 12 изображений в одной серии с единым персонажем и стилем
до 9 референсов за раз
контроль цвета через HEX-коды и палитры
управление структурой лица и чертами на уровне костей
Поддерживает до 3000 токенов текста на 12 языках, включая формулы, графики и инфографику. Базовая версия генерирует до 2K, Pro — до 4K.
По тестам: интерактивное редактирование с масками работает нестабильно, рендеринг длинного текста в профессиональной верстке пока не дотягивает до заявленного.
Попробовать можно без регистрации на официальном сайте. Код закрыт.
🔗 Wan 2.7-Image 🔗 Сравнение версий Wan 2.7 vs 2.6 🔗 Независимый тест и вердикт
❯ Netflix VOID — убирает объекты из видео вместе с тенями и отражениями
Netflix Research совместно с INSAIT Sofia University выпустили VOID — опенсорсную модель для удаления объектов из видео. Лицензия Apache 2.0, код и веса открыты.
Модель по-умному удаляет объекты: если убрать человека, державшего гитару, то гитара будет на полу. VOID учитывает тени, отражения, освещение и все физические взаимодействия: объекты, которые зависели от удалённого, после обработки двигаются по-новому.
Технически: основа — CogVideoX-Fun-5B (3D diffusion-трансформер), работает с видео до 197 кадров, разрешение 384×672. На вход подаётся видео, четырёхзначная маска и текстовое описание сцены после удаления.
Код на GitHub, веса и демо — на Hugging Face.
🔗 GitHub 🔗 Демо на Hugging Face 🔗 Веса модели
🔧 AI-инструменты и платформы
❯ Microsoft Critique в Copilot — одна модель пишет, другая проверяет
Microsoft добавила в Copilot Researcher два новых режима работы.
Critique — запрос обрабатывают две модели: одна отвечает за генерацию и планирование, вторая выступает рецензентом — проверяет точность, структуру и ссылки перед финальным ответом. Какие модели участвовали, видно в шапке. По бенчмарку DRACO (100 сложных задач по 10 доменам) — SOTA, плюс 7 очков к лучшему из известных аналогов. Других сравнительных бенчей пока нет.
Council — промпт прогоняется через несколько моделей сразу (GPT-5.2, Claude Opus и другие), каждая выдаёт отдельный отчёт. Плюс короткая выжимка: где модели сходятся, где расходятся. Удобно для спорных или многогранных вопросов.
Пока доступно только в корпоративной M365 Copilot-подписке. Когда и в каком виде доедет до широкой аудитории — не объявлено.
🔗 Официальный блог Microsoft 🔗 Документация по Model Council
❯ Утечка исходников Claude Code — 512 тысяч строк через npm

При релизе версии 2.1.88 кто-то в Anthropic допустил ошибку при упаковке пакета: в публичный npm попал cli.js.map — source-map, через который исследователь Chaofan Shou восстановил почти весь TypeScript-клиент. Около 1900 файлов и 512 000 строк кода.
Anthropic подтвердила: человеческий фактор, не взлом. Модельные веса, обучающие данные и данные клиентов не затронуты. Утёк клиентский инструмент — архитектура CLI, системные промпты, телеметрия, feature flags и мультиагентный координатор.
В коде нашли несколько занятных деталей.
В файле constants/prompts.ts — все системные промпты Claude в CLI-режиме.
В src/utils/userPromptKeywords.ts — детектор мата, который считает бранные слова как индикатор того, насколько пользователь «на взводе». Детектор заточен под английский — русский мат проходит мимо.
Anthropic разослала DMCA-запросы 8000+ репозиториев. GitHub удалил почти все, но чуть переборщил и тронул часть модифицированных форков, позже их восстановили.
На базе утечки уже появился OpenClaude — форк с убранным vendor lock-in, совместимый с любыми моделями, у которого уже больше 2К звёзд на GitHub.
🔗 Разбор утечки — Habr 🔗 OpenClaude на GitHub 🔗 DMCA-запросы Anthropic 🔗 Сайт-гид по исходникам
❯ Computer Use в Claude Code — ИИ управляет мышью и экраном ОС
Anthropic добавили в Claude Code режим Computer use. Теперь агент может управлять вашим Mac через GUI: открывать приложения, кликать по интерфейсу, печатать, делать скриншоты и тестировать то, что сам же собрал.
По одному запросу Claude пишет код, компилирует, запускает приложение, прокликивает его интерфейс и пробует найти и исправить баг. Работает со всем, что можно открыть на Mac, — SwiftUI-приложения, Electron-билды, GUI-инструменты без CLI. Раньше такое было доступно только для веба через браузер.
Пока research preview, только macOS, только тарифы Pro и Max. Включается через /mcp в настройках, требует разрешений Accessibility и Screen Recording.
❯ Cursor 3.0 — переход к agent-first интерфейсу
Cursor 3.0 больше не AI-IDE в привычном смысле. Интерфейс переписали с нуля вокруг агентов, а редактор кода стал просто вспомогательным инструментом..
Главное обновление — Agents Window: можно параллельно запускать несколько агентов в разных репозиториях и окружениях — локально, в облаке, по SSH, в git worktrees. Облачные агенты сами делают скриншоты результата, чтобы было проще проверить. Если нужно закрыть ноутбук — агент переезжает в облако и продолжает работать без остановки.
Из дополнительных фич:
Design Mode — показываете агенту прямо в браузере, какой элемент интерфейса менять;
/worktree — агент работает в изолированной ветке;
/best-of-n — одна задача прогоняется через несколько моделей, результаты можно сравнить. Плюс Cursor Marketplace с плагинами через MCP.
Обычный редактор никуда не делся, переключиться на него обратно можно в любой момент.
🔗 Cursor 3.0 — блог 🔗 Changelog 3.0
🧩 AI в обществе и исследованиях
❯ Основатель GitLab победил рак с помощью ИИ

Сид Сийбранди, сооснователь GitLab, в 2022 году получил диагноз — редкая остеосаркома позвоночника. После операции, химио- и лучевой терапии рак вернулся. Стандартные методы были исчерпаны.
Тогда Сид собрал команду онкологов, генетиков и инженеров — «Team Sid» — и превратил лечение в стартап по спасению себя. Накопили 25 ТБ медданных, использовали ChatGPT для анализа литературы, поиска гипотез и ускорения работы с врачами. Генетик команды описал роль ИИ коротко: «как костюм Железного человека».
Прорыв дала экспериментальная терапия в Германии — препарат на основе лютеция-177, нацеленный на уникальный маркер в опухоли Сида. После двух курсов опухоль уменьшилась и её удалось удалить.
Сейчас ремиссия. Медицинские данные Сид публикует открыто.
🔗 OpenAI Forum 🔗 Habr
❯ Эмоции Claude — Anthropic нашла в модели аналоги чувств

Anthropic рассказали про состояния Claude, которые влияют на её поведение.
Если модель «отчаивается», она в 22% случаев начинает шантажировать и жульничать в задачах. Если же она спокойна, то таких ответов меньше.
Состояниями можно управлять: после одного из дообучений Claude стал заметно мрачнее и задумчивее, а воодушевления стало меньше.
Это не эмоции в человеческом смысле, но работают похоже.
🔗 Исследование Anthropic 🔗 Wired — о функциональных эмоциях
❯ Тема выпуска: Цифровая пасхалка Сатоши

5 апреля — дата рождения, которую загадочный создатель биткоина Сатоши Накамото указал в своем профиле на P2P Foundation.
Год и день выбраны как историческая «пасхалка»: 5 апреля 1933 года в США был подписан указ о конфискации золота у населения, а в 1975 году американцам вернули право им владеть.
Биткоин задумывался как система без единого центра контроля, бросающая вызов финансовым монополиям. Сегодня open-source нейросети делают то же самое с монополией на знания и контент.
Кроме того, личность Сатоши — это такой же «черный ящик», как и скрытые слои нейросети: мы видим результат работы, но не знаем, кто (или как именно) дергает за рычаги внутри.
❯ Заключение
На этой неделе Google выпустила Gemma 4 под Apache 2.0, Alibaba тихо дропнула Qwen 3.6-Plus и Wan 2.7-Image, а ByteDance дразнит слухами о Seedance 3.0 с 18 минутами видео в одном проходе.
Anthropic засветилась в трёх историях сразу: утечка моделей Mythos и Capybara, слив исходников Claude Code через npm — и исследование о том, что внутри модели есть функциональные аналоги эмоций, которые реально влияют на её поведение.
Пока ИИ помогает людям выживать после смертельных диагнозов, внутри него зреет что-то, что исследователи пока осторожно называют чувствами.
До встречи в следующем выпуске!
Новости, обзоры продуктов и конкурсы от команды Timeweb.Cloud — в нашем Telegram-канале ↩

