Модель обрабатывает не отдельные символы, а их пачки. Например, слово "корова" может быть разбито на "ко", "р", "ова" - итого 3 вместо 6. Как именно работают токенизаторы я не уверен.
Есть такая штука, как Open LLM leaderboard - туда занесены все модели ИИ с открытым исходным кодом и результаты их оценивания. Весьма занятная вещь, посмотрите.
Ага. К слову, там у DeepSeek идёт сейчас "неделя опенсорса", что ещё огоньку немного добавило.
Wolfram к ChatGPT давно прикручен через GPTs, если вы об этом.
Принцип "заткнись и считай"...
Учитывая, что они и так в минус на 5 лярдов вечнозелёных уходят, то это действительно щедрость.
Модель обрабатывает не отдельные символы, а их пачки. Например, слово "корова" может быть разбито на "ко", "р", "ова" - итого 3 вместо 6. Как именно работают токенизаторы я не уверен.
Ну, 3.5 в последнее время переплёвывают и локальные модели...
Есть такая штука, как Open LLM leaderboard - туда занесены все модели ИИ с открытым исходным кодом и результаты их оценивания. Весьма занятная вещь, посмотрите.
Есть более понятная задачка для проверки, уверен тут ошибку не заметили и половина людей. Итак, она звучит следующим образом:
"В повозку запряжены две лошади. Каждая бежит со скоростью 45 км/ч. Какова скорость повозки?"
3.5 еë не бьёт ни как - вот 90 и всё. А 4 решает без проблем, отвечая положенные 45.