Pull to refresh

Comments 19

Тут все просто.

1) DeepSeek доступен без VPN и необходимости добывать иностранные симки.

2) DeepSeek бесплатен для пользователей (включая рассуждающую модель).

3) DeepSeek доступен для самостоятельно локального развертывания у себя на машине.

4) По качеству DeepSeek меня полностью устраивает.

Сравнимое с сайтом качество на локальной машине можно получить только если у тебя есть 400гб видеопамяти. Аренда такой железки стоит очень дорого. Сколько еще deepseek будет дарить такие деньги людям которые даже не собираются ничего покупать?

зы у чатгпт всего 15млн клиентов которые платят по 20 баксов в месяц и 350млн в неделю кто не платит вообще, неудивительно что они в минусах. Удивительно как цигане умудряются набрать сравнимое количество людей в телеграме

Увы, DeepSeek имеет на борту данные до 2023 года, о чем САМ рассказывает на вопрос о данных

Выиграет тот, кто сумеет эффективнее использовать вычислительные мощности при примерно сопоставимом качестве

Вот только лимиты полумёртвые. Я купила раз и оказалось, что про версии вообще недостаточно. Либо брать апи втридорога, которое ещё и неудобное, либо 20$ и chatgpt, который отвечает лишь чуточку хуже. А вдобавок имеет проекты и мелких ботиков, что вообще разрешает, на мой взгляд, все сомнения

Вроде не было проблем с лимитами? Может у вас чаты получаются слишком длинные, поэтому быстро токены расходуются? Для меня разница между Claude и ЧатомЖПТ существенна. Жпт тоже купил ради голосового режима.

У бесплатной версии гпт лимит раза в полтора больше клода. У платного клода всего "до 5 раз" больше, чем у бесплатного. В итоге выходит, что три бесплатных аккаунта гпт равны одному платному клоду. Неудобно, правда, невероятно. Хотя с точки зрения поставщика это справедливо - платишь за реальное использование, а не за количество сообщений. Просто на моей стороне выходит дорого

Но это лирика. На самом деле задачи у всех разные. Лично у меня просто выходит много запросов и действительно не односложные диалоги. Можно, конечно, решать каждую задачу в отдельном чате, но мне намного удобнее, когда я могу работать с чем-то в одном, потом под другую задачу создавать отдельный чат. А в мелких приходится каждый раз закидывать контекст и объяснять, что я от него хочу. Вот и выходит несколько тысяч токенов в каждом из нескольких чатов каждый раз, когда иду по какой-то задаче. Если не больше. В чатгпт даже думать не приходится об этом, мне при разумном использовании о1 в сочетании с 4о за глаза их обеих хватает, а последней так вообще даже на безостановочный чатинг. А вот клод подводит, и на апи в норм использовании тоже улетает очень много

Ну и, как сказала уже, проекты и ботики. Платила бы ещё 10 баксов сверху только за доступ к ним при тех же лимитах, что и у клода

Использую API, для моих целей (пару раз в неделю реализовать какой-то код по чёткому ТЗ) более чем хватает и выходит на порядок дешевле, чем платить 20$/mo (я трачу около 2$/mo). Почти никаких лимитов, а если подобрать хороший UI, то ещё и очень удобно (например, можно редактировать текст предыдущих вопросов/ответов). Лично я использую openrouter.ai.

Тут от задач, конечно, зависит. У меня он всосал за месяц $30 и я решила, что больше мне такие штуки не по нраву 🤣

DeepSeek это хрень какая-то. Политически ангажированный АИ, у него базы 2023 года по многим вопросам, + это модель не самостоятельная. В под процессах она называет себя Chat GPT, то есть она обучалась не самостоятельно на материалах а на Chat GPT.

В под процессах она называет себя Chat GPT,

А как она, по-Вашему, должна себя называть?

Отгадай загадку, Бэтмен: а как нейросетка, обученная на результатах из Интернета, может знать, кто её создал, если в Интернете на момент её создания ещё нет информации о том, кто её создал, по той простой причине, что она ещё не создана?

Кстати, интересно, если обучение просто ведётся на всей текстовой информации подряд и ей прямо не говорят кто она, почему она вообще себя LLM считает, вместо усредненным Васей с форума?

Насколько мне известно, у всех нейросеток есть стартовый промпт, который юзеру не показывается, но автоматически всегда приписывается спереди к тому промпту, который вводит юзер — вот в нём и есть всевозможные базовые даные. Но туда сильно много не запихнёшь.

Это кстати не объясняет претензию первого комментатора. Не будет же в промте у R1 указано что это chatgpt? Разве что указано в общем, что это искусственный интеллект, и от туда додумывает что он - ChatGPT как самый часто упоминаемый.

Именно так: в «стартовом промпте» не прописали, а дальше оно само «додумывает».

Тут немного ошибка. Первый этап обучения ведётся на всей доступной информации. И модель получается достаточно тупая. Этот датасет невероятно огромный, но такой же неструктурированный. А дальше модель учится на втором датасете для доводки. Он тоже на самом деле большой, но сравнительно мал рядом с первым, и делается тоже гораздо сложнее и дольше. Это по сути чётко размеченные диалоги, если не ошибаюсь. МБ и не в прямом виде диалоги, но в любом случае фильтрованные, просеянные, подготовленные нужным образом инструкции и примеры ответов. И вот там как раз можно научить модель чему угодно. В том числе и отвечать как ГПТ или, при наличии денег, обучат, например, решать твою конкретную задачу лучше, чем стандартная модель, так как данные будут лежать прямо в ней, а не рядом в документах

Тогда получается, первый комментатор не так уж не прав и если Deepseek отвечает что он ChatGPT то тут дело нечистое? И у них второй датасет с разметкой по какой то причине размечен как ChatGPT.

вот чего не знаю, того не знаю. Я не настолько хорошо разбираюсь в их устройстве, к сожалению, чтобы знать, что откуда попало. В принципе и gigachat, кажется, пару раз признавался, что его создала Athropic

В моих глазах более серьёзным аргументом служит личная проверка. Специально сравнивала 4о с обычным, не мыслящим, deepseek. Кидала файлы, текст, все промпты и данные одинаковы. Когда в ответ на просьбу дописать текст вместо троеточия (200 слов уже есть, 200 слов надо написать. Технический текст из введения к дипломной работе с обоснованием актуальности цели) две модели выдают похожий результат, нельзя не удивиться. Когда, заинтересовавшись, идёшь в сравнивалку и видишь, что на эти 200 слов всего 30 отличий, половина которых - формы слов или синонимы, нельзя не начать что-то подозревать

В общем, я думаю, что что-то в этих слухах точно есть, хотя бы частично. У меня совпадение от 40 до 90 процентов - гораздо больше, если считать формы слов. Буквально фразами одинаковыми говорит, бывает. Да и невероятно низкий для модели такого уровня (а прорыва в этой части никто пока не нашёл) ценник обучения тоже наводит на мысли.

Sign up to leave a comment.