Как стать автором
Обновить

Комментарии 2

9б модель потребляет примерно столько же ресурсов как ллама и мистраль 8б, работает на селероне без видеокарты, при этом русский язык знает намного лучше. Это однозначный успех, если не революция.

GGUF модели (работают только на сегодняшней свежей llama.cpp):

9B: https://huggingface.co/bartowski/gemma-2-9b-it-GGUF
27B: https://huggingface.co/bartowski/gemma-2-27b-it-GGUF

9B модель порадовала, она держит мысль дольше и не распадается в хаос мыслей как Llama3 8B. В качестве переводчика тоже лучше чем ллама. Перевод правда немного похож на гуглевский, но для такого размера, что влезает без проблем влезает в 6гб видеопамяти, это отличный результат.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий