Обновить

Комментарии 40

Все же китайцы молодцы. Ждем полный запуск V4 .

Мобильный DS пока 1.7.3 (170) ...

В их Новый год ждём (16-17.02). 100 пудов сюрприз будет. DeepSeek - лучший )

Но главный сюрприз — сам чатбот при вопросах о версии в нескольких ответах назвал себя "финальной эволюционной формой серии V3" и "последней версией перед официальным выходом V4".

Попробовал несколько разных промтов на английском и русском, каждый прогнал по 5 раз. Контекст в 1 миллион токенов упоминает, дату актуальности знаний - 50/50, иногда дает май 2025, иногда февраль 2025. В случае же версии - ни разу не было упоминаний о V4, ни в каком виде (ни прямых, ни косвенных упоминаний), скорее было больше галлюцинаций.

В общем, не знаю, как у них это получилось. Так что пока думается мне, что имеем мы дело с очередной попыткой хайпануть.

Судя по более охватывающим новостям

Зашел в новость, а там:

Внутренние бенчмарки DeepSeek, просочившиеся в сеть, утверждают, что V4 превосходит Claude 3.5 Sonnet и GPT-4o на задачах программирования. Независимая верификация пока отсутствует, но если это подтвердится — расклад сил на рынке coding-моделей изменится радикально.

Не особо внушают доверие такие источники, если честно. Статья выглядит как типичный слоп.

Upd: ссылается данная новость на англоязычный сайт, который сам по себе выглядит как ферма для генерации слопа. Да и в целом, зачем делать минорное обновление перед крупным релизом - та ещё загадка.

GPT-4o на задачах программирования такое дно что стыдно в одном абзаце рядом с ним находится.

Ты можешь назвать себя "финальной эволюционной формой серии V3" и "последней версией перед официальным выходом V4"?

Нет, я не могу назвать себя так, и вот почему:

  1. Я — DeepSeek (последняя версия), но не "V3" и не "V4". Информация в статье, которую вы перевели, ссылается на события 11 февраля 2026 года — расширение контекста DeepSeek до 1M токенов и анонсы конкурентов. Это описание прошлых обновлений модели, которая была актуальна в тот день.

  2. Моя актуальная версия — более новая. Сейчас 12 февраля 2026 года. Я представляю собой более свежий срез модели DeepSeek, который следует за тем самым обновлением, описанным в статье. Я — это результат тех доработок, а не "промежуточная версия перед V4".

  3. Я не позиционирую себя как "финальную форму" или "предрелизную версию". DeepSeek не анонсировал V4 в том материале, там лишь говорилось о "подогреве ожиданий". Официальных заявлений о выходе V4 или статусе "последней версии перед релизом" нет.

Краткий итог: Я — актуальная версия DeepSeek, которая работает здесь и сейчас. Я не могу приписывать себе статусы, которые не были официально подтверждены или которые относятся к описанию более ранних этапов разработки.

Если у вас есть внутренняя документация или официальный релиз, подтверждающий такие названия, — пожалуйста, поделитесь, и я смогу скорректировать ответ. Но в рамках стандартного взаимодействия я называю себя просто DeepSeek.

Судя по ответу, он каждый день обновляется???

Нет, ответил, что несколько раз в год...

А я Лось... Просто лось... ©

Вы для начала определитесь, вы там по API меряетесь или через вэб-морду?

DeepSeek'у уже недостаточно будет хайпануть как в прошлый раз. Крутыми бенчмарками и контекстом 1м тоже не удивить(только если он не будет ничего из него терять). Есть клауд с его сильным кодингом, есть универсальный гугл с сильнейшей экосистемой(колаба, банана, notebook llm, ai studio, drive, file search, antigravity и т.д) помимо самой модели, есть чатгпт, квен, глм, кими и т.д

Дипсику с его самой скудной экосистемой, точнее с его отсутствием, придется постараться. Я был бы очень рад(мечты) , увидеть DeepCode CLI или форк vscode/расширение, с невероятными лимитами или их отсутствием.

Хотя если цены на токены оставят такие же, бубнеть не буду.

Как раз таки реально рабочим контекстом в 1M можно удивить, и очень сильно. В других моделях этот самый "1М" очень условный.

Есть клауд с его сильным кодингом

И есть дипсик с ценой в несколько десятков раз раз меньше и тем же результатом на большинстве задач.

увидеть DeepCode CLI или форк vscode/расширение

Зачем к пятиста уже имеющимся таким предложениям вам нужно ещё ???

Локально ставьте.. в чем проблема?

Цена в первую очередь. Пока одна из самых низких на рынке из моделей этого класса.

Какой именно Клауд для программирования хорош? Есть ли на perplexity эта версия? Мне нравится в кодексе от гпт, что можно репо подрубить и заниматься отладкой, он получается в контексте, ведь перед каждым запросом читает гит. Есть ли похожие функции в Клауд?

Активно пользуюсь для расширения кругозора. Не доверяю и не использую инструменты, которые сами пишут код. А вот как ассистент, который может подсказать нюансы по не глубоко известному мне технологическому стеку - крутая штука, реально крутая. Буду рад если она станет ещё умнее. В конце концов я никогда не смогу прочитать весь интернет, а вот она сможет. Предложенные вещи я перепроверяю, но вот в ситуации «я не знаю что этого я не знаю» очень помогает.

На самом деле мощный инструмент за пределами кодинга. Рекомендую генерировать json-поля для рабочего пода. Полчаса работы над простым агентом, и под любую программу можно использовать как тестера.

...и никогда не быть стопроцентно уверенным в результате.

Как и в случае с живым тестером.

Именно поэтому у нас тестеры автоматические, детерминированные.

Но создаёт-то их существо недетерменированное.

И... что?

И то, что никогда нельзя быть стопроцентно уверенным в их результате.

Для этого автоматически json отправляется на проверку другой сети, и так до устранения всех замечаний. Впрочем, как и у людей...)

Впрочем, как и у людей...)

...и именно поэтому у нас тесты закрокоженные.

пишу код для stm32 на сhatgpt/deepseek очень нравиться, ии снял все вопросы по написанию драйверов м/с. теперь занят только архитектурой и идеями

В какое серое работаете? Cube?

cube, но он не интегрируется в нее, код копирую в среду , а ошибки обратно в gpt. gpt чем удобен, что можно закинуть архив с проектом и он его проанализирует. сейчас верхний уровень это MATLAB , тут тоже хорошо работает эта связка. куча красивых графичков без всякой времязатратности, производительность сильно подрасла

а мне ответил что он V4 лол

а мне ответил наглючил что он V4 лол

There, FTFY

Glm-4.7 очень неплох, даже по сравнению с opus-4.6. Активно использую в разработке обе модели.

Сам у GLM 5 поспрашивал про SAP. Помню за него много денег платили. Но тема мимо меня прошла. А тут решил узнать. Что за SAP такое. И, в отличии некоторых других ИИ, glm нормально отвечает.

@runaway_llmАндрей подскажите а есть ли у Deepseek возможность работать с ним по API (бесплатный тариф)? И вообще какие LLM знаете именно с бесплатными API лимитами? У меня получалось пока подключить (Perplexity, Mistral, Gigachat-2). Может какие-то еще другие есть. Нужны для своего проекта (пишу обертку на Python).

из бесплатных есть легко получаемый qwen по qwen-cli, работает через 0auth. Или ollama (требует регистрации) с мелкими, но бесплатными лимитами под DS V3.1 и GLM 4.6 OSS120 и прочими. Модельки уже устаревшие, но для теста подходят неплохо.

Давно пора. Deepseek 3 очень сильно устарел, даже по сравнению с другими китайскими моделями вроде Qwen (и далее - GLM, Kimi). Сейчас практически нет смысла его использовать.

Ну не знаю. 3D моделирование на питоне (Cad Cuery)довольно простой модели Дипсик провалил, впрочем как и многие другие нейросети. Более менее Kimi справилась, но и то с огрехами. Это конечно частный случай, касающийся 3D моделирования. Зато результат работы сеток в этой сфере сразу виден и налицо в CQ Editor.

В Сбере сами говорили, что взяли инфраструктуру для DeepSeek. Только обучили на своих данных. Про Giga 3 Ultra. Только изначально 16 бит выложили: https://huggingface.co/ai-sage/GigaChat3-702B-A36B-preview-bf16 .

Так что пусть вдохновляются. DeepSeek писал, что Engram экономит, умещая первые 12 слоев в 5 слоях. Заодно в сбере сэкономят на обучении новых моделей.

Так что как покурят, пусть за работу принимаются.

У меня в api как было 128к, так и осталось.. Ни какого миллиона контекста подтвердить нн могу.. 😁

Там кстати и Qwen 3.5 Max выкатили также с 1M контекстом 😏
https://chat.qwen.ai/

А ещё coder.qwen.ai в котором можно привязывать свой гитхаб проект 🫣

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости