Обновить
66
35.9
Иван Никитин@python_leader

Passionate Developer.

Отправить сообщение

Данные дороже денег: JetBrains меняет лицензии на код из реальных проектов

Время на прочтение1 мин
Охват и читатели4.4K

Крупные игроки всё яснее понимают: золото XXI века — это не нефть и не подписки, а данные. И JetBrains демонстрирует это особенно наглядно. Компания готова отказаться от быстрой прибыли и раздать лицензии бесплатно — лишь бы получить доступ к уникальному «топливу» для своих ИИ-моделей.

Большинство LLM учатся на публичных датасетах, далеких от реальных рабочих сценариев. Отсюда «галлюцинации» и ошибки на сложных проектах. JetBrains хочет исправить это и собирать настоящие сигналы — историю редактирования кода, команды терминала, запросы к ИИ и ответы.

Что придумали...

Читать далее

Granite 4: IBM представила линейку маленьких, но шустрых LLM

Время на прочтение1 мин
Охват и читатели6.8K

Пока OpenAI, Anthropic и Meta меряются миллиардами параметров, IBM внезапно решила сыграть в другую игру, представив Granite-4.0 — набор маленьких, но шустрых LLM.

Вместо гигантов под сотни миллиардов параметров, IBM выкатила...

Читать далее

Вышел Cursor 1.7: теперь с «хуками» и автокомплитом при общении с агентом

Время на прочтение1 мин
Охват и читатели7.8K

Что изменилось:

1) Появился Autocomplete для Agent — агенты сами подсказывают куски промптов прямо при написании.
2) Вкатили Hooks (beta) — возможность подключаться к циклу агента и управлять им на лету: фильтровать действия, редактировать контекст, блокировать команды.
3) Запустили Team Rules — единые правила для всей команды (например, единые ограничения или политики).
4) А ещё: агенты теперь работают в песочнице (sandboxed terminals), так что давать полный доступ агенту теперь могут все, даже параноики 😉 Ну а если что-то не заработает из-за sandbox — IDE сама предложит перезапуск вне его.
5) Ну и последнее, была добавлена...

Читать далее

Вышла GLM-4.6 — очередное обновление от Z.ai

Время на прочтение1 мин
Охват и читатели4.8K

Что завезли: окно контекста теперь не 128k, а 200k токенов (можно загружать целую диссертацию и ещё место останется). Кодинг стал бодрее — модель не только щёлкает бенчмарки, но и в реальных сценариях типа Claude Code и Roo Code показывает себя отлично. Плюс апгрейд по «агентности»: умнее пользуется инструментами, ищет, анализирует, делает выводы.

Читать далее

JetBrains встроили Claude Agent прямо в свои IDE

Время на прочтение1 мин
Охват и читатели7K

Claude Agent теперь живёт прямо в AI-чате IDE, а под капотом — свежевыпущенный Claude 4.5 Sonnet.

Примечательно, что это первый сторонний агент, официально встроенный в экосистему JetBrains, и он идёт в составе подписки JetBrains AI — доплат не просят. Сделан на Anthropic Agent SDK, поэтому умеет в контекст, тулы, файловые операции и даже исполнение кода. Работает через MCP: агент видит IDE как сервер инструментов, вы — просто переписываетесь в чате.

Читать далее

Вышла Claude Sonnet 4.5 – лучшая модель для программирования

Время на прочтение2 мин
Охват и читатели12K

Что внутри? Во-первых, модель стала лучше во всём, что связано с программированием. На бенчмарке SWE-bench Verified она теперь топ-1, а на OSWorld — выросла с 42% до 61% точности за каких-то четыре месяца. То есть Sonnet теперь не только пишет функции, но и отлично справляется с файлами, браузером и таблицами.

Читать далее

DeepSeek-V3.2-Exp: китайцы снова мутят что-то хитрое

Время на прочтение2 мин
Охват и читатели12K

DeepSeek выпустили экспериментальную модель DeepSeek-V3.2-Exp — видимо, промежуточный шаг к их следующему «монстру». Главное новшество — DeepSeek Sparse Attention: хитрый способ сделать работу трансформеров на длинных текстах быстрее и дешевле.

Если по-простому: модель учится «не тратить внимание впустую». Вместо того чтобы пересчитывать все связи между словами, она обрабатывает только важные — и при этом почти не теряет качество ответа. Бенчмарки показывают, что результат остался на уровне прошлой версии V3.1, но вычислительная эффективность заметно выросла.

Читать далее

Continue навёл марафет в VS Code

Время на прочтение1 мин
Охват и читатели6.1K

Кажется, ребята из Continue решили: хватит терпеть визуальный бардак. В версии 1.13.0 их AI-помощник для кодинга получил серьёзный апгрейд интерфейса. Теперь всё чище, логичнее и дружелюбнее.

Главные апдейты...

Читать далее

Google выкатила обновлённые Gemini 2.5 Flash и Flash-Lite — самое важное за пару минут

Время на прочтение2 мин
Охват и читатели7.3K

Недавно Google выкатил обновлённые версии своих моделей — Gemini 2.5 Flash и 2.5 Flash-Lite.

Flash-Lite теперь заметно умнее и экономичнее. Модель лучше выполняет сложные инструкции и системные подсказки, перестала писать лишние слова (а значит, тратит меньше токенов и работает быстрее), а ещё прокачала мультимодальные возможности — лучше распознаёт речь, понимает картинки и точнее переводит. Google заявляет, что количество выходных токенов снизили на 50%, а значит — дешевле ответы и ниже задержка.

Flash подтянули в других местах. Во-первых, модель научили эффективнее пользоваться инструментами, что особенно важно для сложных агентных сценариев. На бенчмарке SWE-Bench Verified она прыгнула с 48,9% до 54%. Во-вторых, сделали работу с включённым «thinking» более экономичной: теперь ответы такого же (а то и лучшего) качества, но с меньшими затратами токенов.

Читать далее

Ollama предоставила бесплатный API для веб-поиска

Время на прочтение2 мин
Охват и читатели3.8K

Ollama официально запустила встроенную поддержку веб-поиска через REST API. Это не просто внешний плагин — это часть экосистемы: API интегрирован в Python и JavaScript SDK, а также доступен через MCP (Model Control Protocol) сервер. Цель — снизить галлюцинации и дать моделям доступ к свежим данным без ручного RAG-пайплайна.

Факты по делу...

Читать далее

Вышла Code World Model: новая модель для кодинга

Время на прочтение2 мин
Охват и читатели4.4K

Meta (признана экстремистской и запрещена в РФ) выкатила Code World Model (CWM) — LLM на 32 млрд параметров, которая не просто предсказывает следующую строчку кода, а учится понимать, как код исполняется. Впервые модель массово тренировали не только на исходниках, но и результатах выполнения Python-кода и взаимодействии с Docker-средами — по сути, научили её играть в программиста, который пишет, запускает, дебажит и фиксит баги.

Главная идея: обычные кодовые LLM знают синтаксис, но плохо понимают семантику — что реально произойдёт при запуске. CWM пытается это исправить: она симулирует исполнение кода построчно, строит «ментальную модель» переменных и состояния программы, а потом использует это при генерации. Плюс её тренировали с помощью агентных задач (модель сама исследует репозиторий, правит баги и гоняет тесты).

Обучали модель в несколько этапов...

Читать далее

Notion объявил о крупнейшем обновлении за всю историю — Notion 3.0

Время на прочтение3 мин
Охват и читатели4.4K

Вышел Notion 3.0 — самое крупное обновление в истории Notion. В центре — Notion AI Agents. Агент может всё, что и человек в Notion: создавать документы, строить базы данных, искать по инструментам и выполнять многошаговые процессы. Плюс новые возможности, которых давно ждали: права доступа к строкам базы данных, новые AI-коннекторы и интеграции с MCP.

Читать далее

Вышла Qwen3-Omni: изначально омни-модальная базовая модель

Время на прочтение3 мин
Охват и читатели6.2K

Qwen3-Omni — это изначально многоязычная омни-модель с поддержкой end-to-end. Она обрабатывает текст, изображения, аудио и видео и выдает потоковые ответы в реальном времени — как в виде текста, так и в живой речи. Мы добавили ряд улучшений для повышения производительности и эффективности.

Читать далее

Mistral AI привлекла 1,7 млрд евро при оценке 11,7 млрд

Время на прочтение2 мин
Охват и читатели4.9K

Французский стартап Mistral AI объявил о закрытии раунда Series C на сумму 1,7 млрд евро при пост-оценке 11,7 млрд евро. Основным инвестором выступил производитель полупроводникового оборудования ASML Holding NV, который одновременно стал стратегическим партнёром компании.

По словам CEO ASML Кристофа Фукье, сотрудничество с Mistral AI откроет новые возможности для клиентов за счёт продуктов и решений на базе ИИ, а также создаст потенциал для совместных исследований.

В раунде также участвовали существующие инвесторы: DST Global, Andreessen Horowitz, Bpifrance, General Catalyst, Index Ventures, Lightspeed и NVIDIA.

Mistral AI отмечает, что новые инвестиции помогут продвигать передовые исследования и развивать кастомные децентрализованные AI-решения для сложных инженерных и промышленных задач, сохраняя при этом независимость компании.

CEO Mistral AI Артюр Менш подчеркнул...

Читать далее

Информация

В рейтинге
237-й
Дата рождения
Зарегистрирован
Активность

Специализация

Бэкенд разработчик
Ведущий
Python
SQL
Git
ООП
PostgreSQL
Docker
Django