Comments 41
Чувствуется переизбыток в интернете, информации о сравнении deepseek с chatgpt.
Возможно, это только мое мнение и людям действительно интересно.
Согласен, как эта вся суета началась, я вообще не вникал, но друзья,знакомые меня победили.
При этом сравнения обычно ни о чем. Обе сети кое как справляются. Может получиться, может нет. Иногда проявляется гениальность, иногда не справляется с самым простым.
В итоге имеем, что ничего не изменилось в плане эффективности.
А вот в стоимости китайцы конечно всех уделали.
При этом сравнения обычно ни о чем
Есть такое, я сегодня раз 5 только сравнение написанной змейки видел.
А вот в стоимости китайцы конечно всех уделали.
Если честно, у deepseek есть только надпись о потенциальной стоимости запросов к API.
Я уже неделю не могу попасть на их страницу с управлением API, там всегда 503 ошибка. Есть ощущение что она никогда и не была доступна.
Openrouter позволяет их использовать. Провайдера только нужно указать, иначе там стоимости бешенные у всяких fireworks.
Либо в принципе запустить локально небольшую модель. Оно вполне себе огонь, судя по отзывам.
Была доступна, я её много гонял несколько недель назад
Сравнение нейросетей мне интересно, но у вас оно не глубокое. Я хочу постоянно использовать нейросеть в работе и мне нужно чтоб она хорошо работало. Пока я использовал в работе соннет и гпт мини. гпт мини дешевле но на одном моменте зациклился и не смог дальше писать код. Соннет этот момент решила, но забрала 90р за один запрос. С 1000 запросов в месяц - это 90т.р. в месяц. Мне рекомендуют квен. В течении недели буду тестить.
Да, действительно, глубоко я не уходил. Про квен ничего не знаю, но сейчас почитал, нужно будет попробовать
Cursor - 20$ в месяц и по сути безлимит даже на соннет. После 500 запросов они будут медленнее, но все еще будут.
да курсор хорош. Но оплачивать из России на запад гемор еще тот. Плюс у курсора закрыт исходный код. Я думал использовать continue, но на соннет с русским прокси обламался. Пока думаю что дальше.
Могу порекомендовать openrouter. Там есть оплата криптой без геморроя.
Правда недавно ввели блокировку для моделей OpenAI по странам. Приходится даже там прокси использовать. А вот остальные работают без проксей.
Интересный вариант. Только тут я с терминологией навено не верно сказал. Русский прокси - это тоже самое что openrouter только русское. https://proxyapi.ru/. На openrouter соннет примерно в 3-4 раза дешевле, но не известно сколько на крипте потеряю. И 30т.р. тоже не приемлимые деньги.
Спасибо за информацию :-). На openrouter квен можно пробовать, если на самом квене openai API нет.
Proxyapi хороши, я пользовался. Но они накрутили цену нереально просто. OR ставит цены как в оригинале, там только 5% при пополнении комиссия и всё.
На крипте теряется около 1.5$ за перевод (я использую ETH/Base у них) и все. В итоге оверхед копеечный.
Очень большое спасибо. Вы прям кладезь ценной информации :-)
Я потерялся. Пробую крипту использовать, а пополнить ее только с visa можно. Что смысл крипты вообще теряется. У меня только мир. Поделитесь пожалуста какую крипту как пополнить? Чтобы openrouter оплатить.
Это как бы очень большая тема ))
Используйте P2P. Карты, само-собой, работать не будут.
Блин. Наизобретали кучу всего. Я смысл P2P понимаю, что это какая-то одноранговая сеть. Я не понимаю какую P2P в крипте надо. Мне бы интсрукцию вот карта мир. Регаешься в обменнике или где. Переводишь туда. А затем в опенроутер здесь пополняешь. В рунете нет блин понятных инструкций для новичков.
Чем ЖПТ хорош, тем, что пишет комментарии в коде. Кажется, мелочь, но на практике, должно экономить много времени.
У меня тоже выходной, и я решил освежить знания по численным методам, конкретно мне квадратура Гаусса - Лобатто по семи точкам потребовалась. Вот так чтобы "под ключ" они не справились, даже с наводящими вопросами. Может игрушки они и норм пишут, но численные методы — так себе, при этом они допускают ошибки, которые потом вычищать долго и нудно. Хотя базовые алгоритмы типа там бинарного поиска или свёртки — вполне норм.
Пинг понг в deepseek сразу рабочее решение выдало, а yandexgpt пока не может и галлюцинирует. Может там надо настраивать разные параметры.
YandexGPT API
Для создания консольного приложения на Go, которое реализует игру «Пинг-Понг» с двумя игроками и управлением с помощью клавиш, можно использовать библиотеку fmt
для вывода информации на экран и библиотеку os
для работы с клавиатурой.
Вот пример кода, который реализует такую игру:
Скрытый текст
package main
import (
"fmt"
"os"
)
// Определение структуры игрока
type Player struct {
name string
score int
}
// Функция для инициализации игры
func initGame() {
fmt.Println("Добро пожаловать в игру 'Пинг-Понг'!")
fmt.Printf("Управление левой ракеткой: W (вверх) и S (вниз)\n")
fmt.Printf("Управление правой ракеткой: стрелки вверх/вниз\n")
}
// Функция для управления движением игроков
func movePlayer(player Player, keyPressed bool) {
if keyPressed {
if player.name == "Игрок 1" {
if os.GetKey(38) == 1 { // Стрелка вверх
player.score++
} else if os.GetKey(40) == 1 { // Стрелка вниз
player.score--
}
} else {
if os.GetKey(87) == 1 { // W
player.score++
} else if os.GetKey(83) == 1 { // S
player.score--
}
}
}
}
// Основная функция игры
func main() {
initGame()
// Создание двух игроков
player1 := Player{"Игрок 1", 0}
player2 := Player{"Игрок 2", 0}
for {
movePlayer(player1, false)
movePlayer(player2, false)
// Вывод результатов игры
fmt.Printf("%s: %d\n", player1.name, player1.score)
fmt.Printf("%s: %d\n", player2.name, player2.score)
// Задержка
os.Sleep(100)
}
}
Игра "Крестики-нолики" на Go
Я попросил в https://chat.qwenlm.ai/ и https://chat.deepseek.com/ написать полный проект аналогичной игры, но на C++ / WTL. Проектных файлов они мне не выдали, только *.cpp и *.h файлы и те надо выковыривать поштучно из потока сознания ИИ.
Чтобы запустить проект пришлось добавить свои проектные файлы, а в первом случае и нужные файлы были не все. Скомпилировался только второй проект, но он ничего не делал. Как оказалось, не мог создать начальное окно. Разбираться было влом, проще найти аналогичный проект на Гитхабе или писать все самому.
Короче говоря, первое знакомство с ИИ («искусственным идиотом») было так себе…
Как раз на днях для решения командного проекта в Школе 21, попросил deepseek и chatgpt написать такой же код для игры пинг понг, только не на Go , а на Си . Результаты такие же как и у автора
deepseek унылое подобие чего-то уникального, выдающегося. .Но на самом деле являющиеся не доделанным криво сляпанным клоном!
Дипсик в написании кода как будто проявляет инициативу. Может это и плюс где-то, но в большом проекте придётся часто одергивать. Либо в начальном промпте сразу осадить.
Когда я попросил deepseek построить на js круговую диаграмму он, в отличии от chatgpt, допустил одну легко исправимую ошибку, но при этом зачем-то бонусом добавил возможность изменять размер секторов через drag and drop)
Вчера полез смотреть, в чем именно отличие архитектуры DeepSeek
https://planetbanatt.net/articles/mla.html
Они и вправду неплохо оптимизировали саму архитектуру за счет изменения матрицы механизма внимания через ее разложение(был MHA стал MLA ). Где в принципе получаются две более простые матрицы. При этом они сделали их сжатие по rank (размеру матрицу), что отчасти приводит к потере информации. Но теряется как раз менее значимая информация, которая как раз ближе к шуму.
А так же совместили это с RoPE для кодирования позиционирования слов.
Так что теперь понятно, почему компании в штатах начали суетится. Дело не в данных и крутизны модели. Данная архитектура должна быстрее обучаться (так как разложение матрицы отбрасывает слабые значения - то есть шум), съедает гораздо меньше памяти и делает больше упор на вычисления GPU вместо ее размера. Это означает более быстрое обучение модели (откидывает шумные данные), меньше требования к памяти видео карт и их мощности.
На будущее если уж и тестируете на задачах которые гуглятся за 5 сек и которые точно были в Датасете, то добавляйте усложняющие уникальные условия, которые не освещаются широко в интернете. Ну и хотя бы 3 4 варианта генерации в каждом, т к тестируете не на нулевой температуре, могут быть значительные вариации.
А что если просить на чуть чуть более абстрактом написать?
На беринфаке вывести строчку "ChatGPT".
Я просил написать quine на Brainfuck.
В первых раз DeepSeek просто взял ответ с википедии.
Во второй раз (с включенным DeepThink) решил проверить решение ушёл в бесконечный цикл :)
На новой ChatGPT пока не проверял, но старая (3.5) вела себя похожим образом - генерировала бесконечный бессмысленный текст, пока её не отрубало по таймауту.
Заставил обоих играть против самих себя в шахматы. Результаты довольно похожие.
https://youtu.be/t7JO1zITCkU
Сравнение кода DeepSeek и ChatGPT(Golang)