Continue навёл марафет в VS Code

Кажется, ребята из Continue решили: хватит терпеть визуальный бардак. В версии 1.13.0 их AI-помощник для кодинга получил серьёзный апгрейд интерфейса. Теперь всё чище, логичнее и дружелюбнее.
Главные апдейты...

Кажется, ребята из Continue решили: хватит терпеть визуальный бардак. В версии 1.13.0 их AI-помощник для кодинга получил серьёзный апгрейд интерфейса. Теперь всё чище, логичнее и дружелюбнее.
Главные апдейты...

Недавно Google выкатил обновлённые версии своих моделей — Gemini 2.5 Flash и 2.5 Flash-Lite.
Flash-Lite теперь заметно умнее и экономичнее. Модель лучше выполняет сложные инструкции и системные подсказки, перестала писать лишние слова (а значит, тратит меньше токенов и работает быстрее), а ещё прокачала мультимодальные возможности — лучше распознаёт речь, понимает картинки и точнее переводит. Google заявляет, что количество выходных токенов снизили на 50%, а значит — дешевле ответы и ниже задержка.
Flash подтянули в других местах. Во-первых, модель научили эффективнее пользоваться инструментами, что особенно важно для сложных агентных сценариев. На бенчмарке SWE-Bench Verified она прыгнула с 48,9% до 54%. Во-вторых, сделали работу с включённым «thinking» более экономичной: теперь ответы такого же (а то и лучшего) качества, но с меньшими затратами токенов.

Ollama официально запустила встроенную поддержку веб-поиска через REST API. Это не просто внешний плагин — это часть экосистемы: API интегрирован в Python и JavaScript SDK, а также доступен через MCP (Model Control Protocol) сервер. Цель — снизить галлюцинации и дать моделям доступ к свежим данным без ручного RAG-пайплайна.
Факты по делу...

Meta (признана экстремистской и запрещена в РФ) выкатила Code World Model (CWM) — LLM на 32 млрд параметров, которая не просто предсказывает следующую строчку кода, а учится понимать, как код исполняется. Впервые модель массово тренировали не только на исходниках, но и результатах выполнения Python-кода и взаимодействии с Docker-средами — по сути, научили её играть в программиста, который пишет, запускает, дебажит и фиксит баги.
Главная идея: обычные кодовые LLM знают синтаксис, но плохо понимают семантику — что реально произойдёт при запуске. CWM пытается это исправить: она симулирует исполнение кода построчно, строит «ментальную модель» переменных и состояния программы, а потом использует это при генерации. Плюс её тренировали с помощью агентных задач (модель сама исследует репозиторий, правит баги и гоняет тесты).
Обучали модель в несколько этапов...

Вышел Notion 3.0 — самое крупное обновление в истории Notion. В центре — Notion AI Agents. Агент может всё, что и человек в Notion: создавать документы, строить базы данных, искать по инструментам и выполнять многошаговые процессы. Плюс новые возможности, которых давно ждали: права доступа к строкам базы данных, новые AI-коннекторы и интеграции с MCP.

Qwen3-Omni — это изначально многоязычная омни-модель с поддержкой end-to-end. Она обрабатывает текст, изображения, аудио и видео и выдает потоковые ответы в реальном времени — как в виде текста, так и в живой речи. Мы добавили ряд улучшений для повышения производительности и эффективности.

Французский стартап Mistral AI объявил о закрытии раунда Series C на сумму 1,7 млрд евро при пост-оценке 11,7 млрд евро. Основным инвестором выступил производитель полупроводникового оборудования ASML Holding NV, который одновременно стал стратегическим партнёром компании.
По словам CEO ASML Кристофа Фукье, сотрудничество с Mistral AI откроет новые возможности для клиентов за счёт продуктов и решений на базе ИИ, а также создаст потенциал для совместных исследований.
В раунде также участвовали существующие инвесторы: DST Global, Andreessen Horowitz, Bpifrance, General Catalyst, Index Ventures, Lightspeed и NVIDIA.
Mistral AI отмечает, что новые инвестиции помогут продвигать передовые исследования и развивать кастомные децентрализованные AI-решения для сложных инженерных и промышленных задач, сохраняя при этом независимость компании.
CEO Mistral AI Артюр Менш подчеркнул...