Комментарии 29
Deepseek v3 (базовый, не "рассуждающий") доступен из России бесплатно и без ограничений.
Но он всё же слабее чем open ai, Google, Anthropic

Новости AI, AI, AI..,AI,AI... Больше совсем ничего не происходит?
И тем не менее модели OpenAI на мой взгляд превосходит большинство других моделей на данный момент.
Вроде бы как отвечае про площадь

Кто уже сравнивал ответы DeepSeek. Есть мысли на сей счет?
Зайдите у ним в гитхаб, там есть бенчмарки моделей
Сначала захожу в ChatGpt и с ним всё устраивает. Когда лимит кончается и он переключается на младшую модель, то мне её ответы не очень, поэтому подключаюсь к DeepSeek. Средненькие ответы и бывает иногда, что что-то мешает ему хорошо отвечать (не пойму что). Иногда один и тот же вопрос решаю, включив сразу три-четыре чата: Ллама 3.3 (нравится, но объём разговора короткий), Мистрал (как DeepSeek, средне), Копилот (средне), Грог (детский лепет), в Джемени редко захожу, на днях появилось Hailuo чат (аудио с чужими голосами у них ничтяк!) тоже средне.
Ах, да. У меня писательская деятельность и вопросы серьёзные, политические.
Врёт точно так же как и все остальные.
Правда, есть кнопка search, которая берёт и обощает ответ из инета.
Особенно интересным мне этот релиз показался из-за облегченных квантированных моделей, их можно запускать на домашнем компьютере(с игровой видюхой). При этом данные модели значительно превосходят другие опенсорс модели со схожим количеством параметров из-за того что они применили новые подходы для их обучения.
Судя по всему через пару тройку лет иметь относительно умную (как сегодняшний чатГПТ) модель на домашнем компьютере будет нормой.
Кому интересны подробности у них в гитхабе про это много написано
Эти модели уже есть в ollama. Любой желающий может сам проверить, в обычном разговоре р1 8б сливает лламе 8б, он просто не говорит по русски. Может быть сможет дать лучше ответы на "олимпиадные задачки" если спросят по английски и китайски но кому это нужно?
Оно немного криво работает с рассуждениями, гонял 32b модель в 4 кванте(на английском само собой), периодически выдавал теги /think не к месту, либо дублировал ответ столько раз столько я ставил лимит токенов. Возможно конечно кривой квант, потестирую ещё, но пока не сильно впечатлен, +- то же самое я получал от gemma-2-27b + плагин на принудительные рассуждения.
Потому что это не R1, версии на 70B или 32B и ниже ошибочно называют R1, хотя это R1 Distill. R1 Distill - это файнтюн на выходных данных R1 для qwen или llama, они не обучались как оригинальная R1 и их качество не соответствует R1.
На мой взгляд китайский аи из серии французской аи, giga chat что касается то модели chat gpt и gemeni 1.5 и от google. их явно превосходят.
Лол, Gigachat и рядом с Мистралем/DeepSeek/Qwen не валялся.
DeepSeekV3 на английском мне куда больше нравится по сравнению с 4o или Gemini 1.5 Pro, но меньше Claude 3.5 Sonnet. Новый R1 по ощущениям пока где-то на уровне o1 с low compute - т.е. лучше o1-mini, но до o1 pro пока недотягивает. С учетом цены токенов, это убер мощно.
На русском DeepSeek так себе, они прямо в тех. репорте пишут что упор на английский и китайский.
Пока ошибается он(как и гемини) вопросы задавали по бухгалтерии он ответил абсолютно не правильно с включенным режимом поиска. Лучше всех ответил мистрал но слишком короткий ответ был. И чат гпт с одной попытки дал очень правильный четкий ответ. Так что пока веры китайскому нет
DeepSeek утверждает, что его модель рассуждений превосходит o1 от OpenAI по некоторым показателям