Обновить

Конкуренция между ChatGPT и Deepseek: кто лидирует на рынке чат-ботов с искусственным интеллектом?

Время на прочтение2 мин
Охват и читатели3.7K
Всего голосов 4: ↑3 и ↓1+2
Комментарии19

Комментарии 19

Тут все просто.

1) DeepSeek доступен без VPN и необходимости добывать иностранные симки.

2) DeepSeek бесплатен для пользователей (включая рассуждающую модель).

3) DeepSeek доступен для самостоятельно локального развертывания у себя на машине.

4) По качеству DeepSeek меня полностью устраивает.

Сравнимое с сайтом качество на локальной машине можно получить только если у тебя есть 400гб видеопамяти. Аренда такой железки стоит очень дорого. Сколько еще deepseek будет дарить такие деньги людям которые даже не собираются ничего покупать?

зы у чатгпт всего 15млн клиентов которые платят по 20 баксов в месяц и 350млн в неделю кто не платит вообще, неудивительно что они в минусах. Удивительно как цигане умудряются набрать сравнимое количество людей в телеграме

Увы, DeepSeek имеет на борту данные до 2023 года, о чем САМ рассказывает на вопрос о данных

Выиграет тот, кто сумеет эффективнее использовать вычислительные мощности при примерно сопоставимом качестве

Вот только лимиты полумёртвые. Я купила раз и оказалось, что про версии вообще недостаточно. Либо брать апи втридорога, которое ещё и неудобное, либо 20$ и chatgpt, который отвечает лишь чуточку хуже. А вдобавок имеет проекты и мелких ботиков, что вообще разрешает, на мой взгляд, все сомнения

Вроде не было проблем с лимитами? Может у вас чаты получаются слишком длинные, поэтому быстро токены расходуются? Для меня разница между Claude и ЧатомЖПТ существенна. Жпт тоже купил ради голосового режима.

У бесплатной версии гпт лимит раза в полтора больше клода. У платного клода всего "до 5 раз" больше, чем у бесплатного. В итоге выходит, что три бесплатных аккаунта гпт равны одному платному клоду. Неудобно, правда, невероятно. Хотя с точки зрения поставщика это справедливо - платишь за реальное использование, а не за количество сообщений. Просто на моей стороне выходит дорого

Но это лирика. На самом деле задачи у всех разные. Лично у меня просто выходит много запросов и действительно не односложные диалоги. Можно, конечно, решать каждую задачу в отдельном чате, но мне намного удобнее, когда я могу работать с чем-то в одном, потом под другую задачу создавать отдельный чат. А в мелких приходится каждый раз закидывать контекст и объяснять, что я от него хочу. Вот и выходит несколько тысяч токенов в каждом из нескольких чатов каждый раз, когда иду по какой-то задаче. Если не больше. В чатгпт даже думать не приходится об этом, мне при разумном использовании о1 в сочетании с 4о за глаза их обеих хватает, а последней так вообще даже на безостановочный чатинг. А вот клод подводит, и на апи в норм использовании тоже улетает очень много

Ну и, как сказала уже, проекты и ботики. Платила бы ещё 10 баксов сверху только за доступ к ним при тех же лимитах, что и у клода

Использую API, для моих целей (пару раз в неделю реализовать какой-то код по чёткому ТЗ) более чем хватает и выходит на порядок дешевле, чем платить 20$/mo (я трачу около 2$/mo). Почти никаких лимитов, а если подобрать хороший UI, то ещё и очень удобно (например, можно редактировать текст предыдущих вопросов/ответов). Лично я использую openrouter.ai.

Тут от задач, конечно, зависит. У меня он всосал за месяц $30 и я решила, что больше мне такие штуки не по нраву 🤣

DeepSeek это хрень какая-то. Политически ангажированный АИ, у него базы 2023 года по многим вопросам, + это модель не самостоятельная. В под процессах она называет себя Chat GPT, то есть она обучалась не самостоятельно на материалах а на Chat GPT.

В под процессах она называет себя Chat GPT,

А как она, по-Вашему, должна себя называть?

Отгадай загадку, Бэтмен: а как нейросетка, обученная на результатах из Интернета, может знать, кто её создал, если в Интернете на момент её создания ещё нет информации о том, кто её создал, по той простой причине, что она ещё не создана?

Кстати, интересно, если обучение просто ведётся на всей текстовой информации подряд и ей прямо не говорят кто она, почему она вообще себя LLM считает, вместо усредненным Васей с форума?

Насколько мне известно, у всех нейросеток есть стартовый промпт, который юзеру не показывается, но автоматически всегда приписывается спереди к тому промпту, который вводит юзер — вот в нём и есть всевозможные базовые даные. Но туда сильно много не запихнёшь.

Это кстати не объясняет претензию первого комментатора. Не будет же в промте у R1 указано что это chatgpt? Разве что указано в общем, что это искусственный интеллект, и от туда додумывает что он - ChatGPT как самый часто упоминаемый.

Именно так: в «стартовом промпте» не прописали, а дальше оно само «додумывает».

Тут немного ошибка. Первый этап обучения ведётся на всей доступной информации. И модель получается достаточно тупая. Этот датасет невероятно огромный, но такой же неструктурированный. А дальше модель учится на втором датасете для доводки. Он тоже на самом деле большой, но сравнительно мал рядом с первым, и делается тоже гораздо сложнее и дольше. Это по сути чётко размеченные диалоги, если не ошибаюсь. МБ и не в прямом виде диалоги, но в любом случае фильтрованные, просеянные, подготовленные нужным образом инструкции и примеры ответов. И вот там как раз можно научить модель чему угодно. В том числе и отвечать как ГПТ или, при наличии денег, обучат, например, решать твою конкретную задачу лучше, чем стандартная модель, так как данные будут лежать прямо в ней, а не рядом в документах

Тогда получается, первый комментатор не так уж не прав и если Deepseek отвечает что он ChatGPT то тут дело нечистое? И у них второй датасет с разметкой по какой то причине размечен как ChatGPT.

вот чего не знаю, того не знаю. Я не настолько хорошо разбираюсь в их устройстве, к сожалению, чтобы знать, что откуда попало. В принципе и gigachat, кажется, пару раз признавался, что его создала Athropic

В моих глазах более серьёзным аргументом служит личная проверка. Специально сравнивала 4о с обычным, не мыслящим, deepseek. Кидала файлы, текст, все промпты и данные одинаковы. Когда в ответ на просьбу дописать текст вместо троеточия (200 слов уже есть, 200 слов надо написать. Технический текст из введения к дипломной работе с обоснованием актуальности цели) две модели выдают похожий результат, нельзя не удивиться. Когда, заинтересовавшись, идёшь в сравнивалку и видишь, что на эти 200 слов всего 30 отличий, половина которых - формы слов или синонимы, нельзя не начать что-то подозревать

В общем, я думаю, что что-то в этих слухах точно есть, хотя бы частично. У меня совпадение от 40 до 90 процентов - гораздо больше, если считать формы слов. Буквально фразами одинаковыми говорит, бывает. Да и невероятно низкий для модели такого уровня (а прорыва в этой части никто пока не нашёл) ценник обучения тоже наводит на мысли.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Информация

Сайт
bothub.ru
Дата регистрации
Дата основания
Численность
11–30 человек
Местоположение
Россия
Представитель
Greg Ewin