Pull to refresh
57
96.3
Иван Никитин@python_leader

Passionate Developer.

Send message

Вышел Cursor 1.7: теперь с «хуками» и автокомплитом при общении с агентом

Reading time1 min
Reach and readers7.8K

Что изменилось:

1) Появился Autocomplete для Agent — агенты сами подсказывают куски промптов прямо при написании.
2) Вкатили Hooks (beta) — возможность подключаться к циклу агента и управлять им на лету: фильтровать действия, редактировать контекст, блокировать команды.
3) Запустили Team Rules — единые правила для всей команды (например, единые ограничения или политики).
4) А ещё: агенты теперь работают в песочнице (sandboxed terminals), так что давать полный доступ агенту теперь могут все, даже параноики 😉 Ну а если что-то не заработает из-за sandbox — IDE сама предложит перезапуск вне его.
5) Ну и последнее, была добавлена...

Читать далее

Вышла GLM-4.6 — очередное обновление от Z.ai

Reading time1 min
Reach and readers4.8K

Что завезли: окно контекста теперь не 128k, а 200k токенов (можно загружать целую диссертацию и ещё место останется). Кодинг стал бодрее — модель не только щёлкает бенчмарки, но и в реальных сценариях типа Claude Code и Roo Code показывает себя отлично. Плюс апгрейд по «агентности»: умнее пользуется инструментами, ищет, анализирует, делает выводы.

Читать далее

JetBrains встроили Claude Agent прямо в свои IDE

Reading time1 min
Reach and readers6.4K

Claude Agent теперь живёт прямо в AI-чате IDE, а под капотом — свежевыпущенный Claude 4.5 Sonnet.

Примечательно, что это первый сторонний агент, официально встроенный в экосистему JetBrains, и он идёт в составе подписки JetBrains AI — доплат не просят. Сделан на Anthropic Agent SDK, поэтому умеет в контекст, тулы, файловые операции и даже исполнение кода. Работает через MCP: агент видит IDE как сервер инструментов, вы — просто переписываетесь в чате.

Читать далее

Вышла Claude Sonnet 4.5 – лучшая модель для программирования

Reading time2 min
Reach and readers12K

Что внутри? Во-первых, модель стала лучше во всём, что связано с программированием. На бенчмарке SWE-bench Verified она теперь топ-1, а на OSWorld — выросла с 42% до 61% точности за каких-то четыре месяца. То есть Sonnet теперь не только пишет функции, но и отлично справляется с файлами, браузером и таблицами.

Читать далее

DeepSeek-V3.2-Exp: китайцы снова мутят что-то хитрое

Reading time2 min
Reach and readers12K

DeepSeek выпустили экспериментальную модель DeepSeek-V3.2-Exp — видимо, промежуточный шаг к их следующему «монстру». Главное новшество — DeepSeek Sparse Attention: хитрый способ сделать работу трансформеров на длинных текстах быстрее и дешевле.

Если по-простому: модель учится «не тратить внимание впустую». Вместо того чтобы пересчитывать все связи между словами, она обрабатывает только важные — и при этом почти не теряет качество ответа. Бенчмарки показывают, что результат остался на уровне прошлой версии V3.1, но вычислительная эффективность заметно выросла.

Читать далее

Continue навёл марафет в VS Code

Reading time1 min
Reach and readers5.7K

Кажется, ребята из Continue решили: хватит терпеть визуальный бардак. В версии 1.13.0 их AI-помощник для кодинга получил серьёзный апгрейд интерфейса. Теперь всё чище, логичнее и дружелюбнее.

Главные апдейты...

Читать далее

Google выкатила обновлённые Gemini 2.5 Flash и Flash-Lite — самое важное за пару минут

Reading time2 min
Reach and readers7.3K

Недавно Google выкатил обновлённые версии своих моделей — Gemini 2.5 Flash и 2.5 Flash-Lite.

Flash-Lite теперь заметно умнее и экономичнее. Модель лучше выполняет сложные инструкции и системные подсказки, перестала писать лишние слова (а значит, тратит меньше токенов и работает быстрее), а ещё прокачала мультимодальные возможности — лучше распознаёт речь, понимает картинки и точнее переводит. Google заявляет, что количество выходных токенов снизили на 50%, а значит — дешевле ответы и ниже задержка.

Flash подтянули в других местах. Во-первых, модель научили эффективнее пользоваться инструментами, что особенно важно для сложных агентных сценариев. На бенчмарке SWE-Bench Verified она прыгнула с 48,9% до 54%. Во-вторых, сделали работу с включённым «thinking» более экономичной: теперь ответы такого же (а то и лучшего) качества, но с меньшими затратами токенов.

Читать далее

Ollama предоставила бесплатный API для веб-поиска

Reading time2 min
Reach and readers3.6K

Ollama официально запустила встроенную поддержку веб-поиска через REST API. Это не просто внешний плагин — это часть экосистемы: API интегрирован в Python и JavaScript SDK, а также доступен через MCP (Model Control Protocol) сервер. Цель — снизить галлюцинации и дать моделям доступ к свежим данным без ручного RAG-пайплайна.

Факты по делу...

Читать далее

Вышла Code World Model: новая модель для кодинга

Reading time2 min
Reach and readers4.4K

Meta (признана экстремистской и запрещена в РФ) выкатила Code World Model (CWM) — LLM на 32 млрд параметров, которая не просто предсказывает следующую строчку кода, а учится понимать, как код исполняется. Впервые модель массово тренировали не только на исходниках, но и результатах выполнения Python-кода и взаимодействии с Docker-средами — по сути, научили её играть в программиста, который пишет, запускает, дебажит и фиксит баги.

Главная идея: обычные кодовые LLM знают синтаксис, но плохо понимают семантику — что реально произойдёт при запуске. CWM пытается это исправить: она симулирует исполнение кода построчно, строит «ментальную модель» переменных и состояния программы, а потом использует это при генерации. Плюс её тренировали с помощью агентных задач (модель сама исследует репозиторий, правит баги и гоняет тесты).

Обучали модель в несколько этапов...

Читать далее

Notion объявил о крупнейшем обновлении за всю историю — Notion 3.0

Reading time3 min
Reach and readers4.3K

Вышел Notion 3.0 — самое крупное обновление в истории Notion. В центре — Notion AI Agents. Агент может всё, что и человек в Notion: создавать документы, строить базы данных, искать по инструментам и выполнять многошаговые процессы. Плюс новые возможности, которых давно ждали: права доступа к строкам базы данных, новые AI-коннекторы и интеграции с MCP.

Читать далее

Вышла Qwen3-Omni: изначально омни-модальная базовая модель

Reading time3 min
Reach and readers6.1K

Qwen3-Omni — это изначально многоязычная омни-модель с поддержкой end-to-end. Она обрабатывает текст, изображения, аудио и видео и выдает потоковые ответы в реальном времени — как в виде текста, так и в живой речи. Мы добавили ряд улучшений для повышения производительности и эффективности.

Читать далее

Mistral AI привлекла 1,7 млрд евро при оценке 11,7 млрд

Reading time2 min
Reach and readers4.9K

Французский стартап Mistral AI объявил о закрытии раунда Series C на сумму 1,7 млрд евро при пост-оценке 11,7 млрд евро. Основным инвестором выступил производитель полупроводникового оборудования ASML Holding NV, который одновременно стал стратегическим партнёром компании.

По словам CEO ASML Кристофа Фукье, сотрудничество с Mistral AI откроет новые возможности для клиентов за счёт продуктов и решений на базе ИИ, а также создаст потенциал для совместных исследований.

В раунде также участвовали существующие инвесторы: DST Global, Andreessen Horowitz, Bpifrance, General Catalyst, Index Ventures, Lightspeed и NVIDIA.

Mistral AI отмечает, что новые инвестиции помогут продвигать передовые исследования и развивать кастомные децентрализованные AI-решения для сложных инженерных и промышленных задач, сохраняя при этом независимость компании.

CEO Mistral AI Артюр Менш подчеркнул...

Читать далее

Information

Rating
72-nd
Date of birth
Registered
Activity

Specialization

Бэкенд разработчик
Ведущий
Python
SQL
Git
ООП
PostgreSQL
Docker
Django