Китайский стартап DeepSeek представил обновление своей линейки — DeepSeek V3.2, модель нового поколения, ориентированную на многошаговое рассуждение, планирование и работу в агентных сценариях.

V3.2 стала официальным преемником экспериментальной версии V3.2-Exp и получила обновлённый датасет для reasoning-задач. Это первое поколение DeepSeek, которое умеет «думать» во время использования инструментов, приближаясь по архитектуре к топовым закрытым моделям.

DeepSeek традиционно смело сравнивает свои модели с флагманами: по заявлениям компании, V3.2 достигает качества уровня GPT-5, при этом обеспечивая более быстрый и дешёвый инференс. Модель обучена на масштабном синтетическом датасете, охватывающем 1800+ интерактивных сред и 85 тысяч задач, связанных с поиском, планированием и сложными цепочками действий.

Попробовать DeepSeek V3.2 и другие топовые модели (GLM 4.6, Minimax M2, Kimi K2-Thinking, Qwen3, Gemini-2.5-Flash и т.д.) можно абсолютно бесплатно уже сейчас c Koda для VS Code. Просто установите Koda, выполните вход через GitHub — и пользуйтесь!

В Koda CLI модель отображается в списке, но работает не полностью корректно. Проблема на стороне провайдеров — пока не поддерживается нужный для CLI формат. Ждём их исправлений и сообщим, как только всё заработает стабильно.

Для более подробного знакомства с возможностями Koda заглядывайте в документацию. Если появятся вопросы – пишите в наш Telegram-чат и присоединяйтесь к нашему Telegram-каналу.