Pull to refresh

Comments 41

Чувствуется переизбыток в интернете, информации о сравнении deepseek с chatgpt.
Возможно, это только мое мнение и людям действительно интересно.

Согласен, как эта вся суета началась, я вообще не вникал, но друзья,знакомые меня победили.

При этом сравнения обычно ни о чем. Обе сети кое как справляются. Может получиться, может нет. Иногда проявляется гениальность, иногда не справляется с самым простым.

В итоге имеем, что ничего не изменилось в плане эффективности.

А вот в стоимости китайцы конечно всех уделали.

При этом сравнения обычно ни о чем

Есть такое, я сегодня раз 5 только сравнение написанной змейки видел.

А вот в стоимости китайцы конечно всех уделали.

Если честно, у deepseek есть только надпись о потенциальной стоимости запросов к API.
Я уже неделю не могу попасть на их страницу с управлением API, там всегда 503 ошибка. Есть ощущение что она никогда и не была доступна.

Openrouter позволяет их использовать. Провайдера только нужно указать, иначе там стоимости бешенные у всяких fireworks.

Либо в принципе запустить локально небольшую модель. Оно вполне себе огонь, судя по отзывам.

Никакую :) Такие мелкие прощу использовать через тот же OR, стоят копейки.

А так можно поставить какую-нибудь llm studio или ollama и играться в свое удовольствие

Сравнение нейросетей мне интересно, но у вас оно не глубокое. Я хочу постоянно использовать нейросеть в работе и мне нужно чтоб она хорошо работало. Пока я использовал в работе соннет и гпт мини. гпт мини дешевле но на одном моменте зациклился и не смог дальше писать код. Соннет этот момент решила, но забрала 90р за один запрос. С 1000 запросов в месяц - это 90т.р. в месяц. Мне рекомендуют квен. В течении недели буду тестить.

Да, действительно, глубоко я не уходил. Про квен ничего не знаю, но сейчас почитал, нужно будет попробовать

Cursor - 20$ в месяц и по сути безлимит даже на соннет. После 500 запросов они будут медленнее, но все еще будут.

да курсор хорош. Но оплачивать из России на запад гемор еще тот. Плюс у курсора закрыт исходный код. Я думал использовать continue, но на соннет с русским прокси обламался. Пока думаю что дальше.

Могу порекомендовать openrouter. Там есть оплата криптой без геморроя.

Правда недавно ввели блокировку для моделей OpenAI по странам. Приходится даже там прокси использовать. А вот остальные работают без проксей.

Интересный вариант. Только тут я с терминологией навено не верно сказал. Русский прокси - это тоже самое что openrouter только русское. https://proxyapi.ru/. На openrouter соннет примерно в 3-4 раза дешевле, но не известно сколько на крипте потеряю. И 30т.р. тоже не приемлимые деньги.

Спасибо за информацию :-). На openrouter квен можно пробовать, если на самом квене openai API нет.

Proxyapi хороши, я пользовался. Но они накрутили цену нереально просто. OR ставит цены как в оригинале, там только 5% при пополнении комиссия и всё.

На крипте теряется около 1.5$ за перевод (я использую ETH/Base у них) и все. В итоге оверхед копеечный.

Я потерялся. Пробую крипту использовать, а пополнить ее только с visa можно. Что смысл крипты вообще теряется. У меня только мир. Поделитесь пожалуста какую крипту как пополнить? Чтобы openrouter оплатить.

Это как бы очень большая тема ))

Используйте P2P. Карты, само-собой, работать не будут.

Блин. Наизобретали кучу всего. Я смысл P2P понимаю, что это какая-то одноранговая сеть. Я не понимаю какую P2P в крипте надо. Мне бы интсрукцию вот карта мир. Регаешься в обменнике или где. Переводишь туда. А затем в опенроутер здесь пополняешь. В рунете нет блин понятных инструкций для новичков.

Нет, P2P это покупка/продажа крипты с рук.

На том же Bybit есть p2p раздел, можете там купить. Вполне себе удобно. Погуглите в общем.

Крипта же задумывалась как анонимная. Почему везде верификация личности по паспорту????

Потому что вы путаете понятия биржи и крипты. В общем это уже выходит за рамки OR, удачи с гуглением ))

Чтобы правильно задать вопрос надо наполовину знать ответ :-) в гуглении так и работает. Удачи :-)

Чем ЖПТ хорош, тем, что пишет комментарии в коде. Кажется, мелочь, но на практике, должно экономить много времени.

У меня тоже выходной, и я решил освежить знания по численным методам, конкретно мне квадратура Гаусса - Лобатто по семи точкам потребовалась. Вот так чтобы "под ключ" они не справились, даже с наводящими вопросами. Может игрушки они и норм пишут, но численные методы — так себе, при этом они допускают ошибки, которые потом вычищать долго и нудно. Хотя базовые алгоритмы типа там бинарного поиска или свёртки — вполне норм.

С более сложными задачами уже не справляются, но если разделить на более мелкие и самому собирать как пазл, можно что-то сделать.

Пинг понг в deepseek сразу рабочее решение выдало, а yandexgpt пока не может и галлюцинирует. Может там надо настраивать разные параметры.

YandexGPT API

Для создания консольного приложения на Go, которое реализует игру «Пинг-Понг» с двумя игроками и управлением с помощью клавиш, можно использовать библиотеку fmt для вывода информации на экран и библиотеку os для работы с клавиатурой.

Вот пример кода, который реализует такую игру:

Скрытый текст
package main

import (
    "fmt"
    "os"
)

// Определение структуры игрока
type Player struct {
    name  string
    score int
}

// Функция для инициализации игры
func initGame() {
    fmt.Println("Добро пожаловать в игру 'Пинг-Понг'!")
    fmt.Printf("Управление левой ракеткой: W (вверх) и S (вниз)\n")
    fmt.Printf("Управление правой ракеткой: стрелки вверх/вниз\n")
}

// Функция для управления движением игроков
func movePlayer(player Player, keyPressed bool) {
    if keyPressed {
        if player.name == "Игрок 1" {
            if os.GetKey(38) == 1 { // Стрелка вверх
                player.score++
            } else if os.GetKey(40) == 1 { // Стрелка вниз
                player.score--
            }
        } else {
            if os.GetKey(87) == 1 { // W
                player.score++
            } else if os.GetKey(83) == 1 { // S
                player.score--
            }
        }
    }
}

// Основная функция игры
func main() {
    initGame()

    // Создание двух игроков
    player1 := Player{"Игрок 1", 0}
    player2 := Player{"Игрок 2", 0}

    for {
        movePlayer(player1, false)
        movePlayer(player2, false)

        // Вывод результатов игры
        fmt.Printf("%s: %d\n", player1.name, player1.score)
        fmt.Printf("%s: %d\n", player2.name, player2.score)

        // Задержка
        os.Sleep(100)
    }
}

Игра "Крестики-нолики" на Go

Я попросил в https://chat.qwenlm.ai/ и https://chat.deepseek.com/ написать полный проект аналогичной игры, но на C++ / WTL. Проектных файлов они мне не выдали, только *.cpp и *.h файлы и те надо выковыривать поштучно из потока сознания ИИ.

Чтобы запустить проект пришлось добавить свои проектные файлы, а в первом случае и нужные файлы были не все. Скомпилировался только второй проект, но он ничего не делал. Как оказалось, не мог создать начальное окно. Разбираться было влом, проще найти аналогичный проект на Гитхабе или писать все самому.

Короче говоря, первое знакомство с ИИ («искусственным идиотом») было так себе…

Как раз на днях для решения командного проекта в Школе 21, попросил deepseek и chatgpt написать такой же код для игры пинг понг, только не на Go , а на Си . Результаты такие же как и у автора

что нравится в deepseek - рассуждает вслух как будет решать задачу, перед тем как выдаст код

deepseek унылое подобие чего-то уникального, выдающегося. .Но на самом деле являющиеся не доделанным криво сляпанным клоном!

Дипсик в написании кода как будто проявляет инициативу. Может это и плюс где-то, но в большом проекте придётся часто одергивать. Либо в начальном промпте сразу осадить.

Когда я попросил deepseek построить на js круговую диаграмму он, в отличии от chatgpt, допустил одну легко исправимую ошибку, но при этом зачем-то бонусом добавил возможность изменять размер секторов через drag and drop)

Вчера полез смотреть, в чем именно отличие архитектуры DeepSeek

https://planetbanatt.net/articles/mla.html

Они и вправду неплохо оптимизировали саму архитектуру за счет изменения матрицы механизма внимания через ее разложение(был MHA  стал MLA ). Где в принципе получаются две более простые матрицы. При этом они сделали их сжатие по rank (размеру матрицу), что отчасти приводит к потере информации. Но теряется как раз менее значимая информация, которая как раз ближе к шуму.

А так же совместили это с RoPE для кодирования позиционирования слов.

Так что теперь понятно, почему компании в штатах начали суетится. Дело не в данных и крутизны модели. Данная архитектура должна быстрее обучаться (так как разложение матрицы отбрасывает слабые значения - то есть шум), съедает гораздо меньше памяти и делает больше упор на вычисления GPU вместо ее размера. Это означает более быстрое обучение модели (откидывает шумные данные), меньше требования к памяти видео карт и их мощности.

На будущее если уж и тестируете на задачах которые гуглятся за 5 сек и которые точно были в Датасете, то добавляйте усложняющие уникальные условия, которые не освещаются широко в интернете. Ну и хотя бы 3 4 варианта генерации в каждом, т к тестируете не на нулевой температуре, могут быть значительные вариации.

А что если просить на чуть чуть более абстрактом написать?

На беринфаке вывести строчку "ChatGPT".

Я просил написать quine на Brainfuck.

В первых раз DeepSeek просто взял ответ с википедии.
Во второй раз (с включенным DeepThink) решил проверить решение ушёл в бесконечный цикл :)

На новой ChatGPT пока не проверял, но старая (3.5) вела себя похожим образом - генерировала бесконечный бессмысленный текст, пока её не отрубало по таймауту.

Я сравнивал с точки зрения написания текстов, там небо и земля.

Пока есть такое ощущение как китайская копия первого айфона с антеной 😁😁

Sign up to leave a comment.

Articles