Комментарии 13
Спасибо за интересную новость. Как раз задавался вопросом эффективного запуска llm на маке; теперь даже проверю в действии. Посмотрим как на 64 гигах будет пыхтеть :)
Но оллама ведь давно на маке есть. И менеджер моделей тоже. Или я что-то не понимаю?
lm studio все это давно прекрасно умеет
У них в README LM Studio быстрее, чем Osaurus:

Ну как бы не во всем. По факту каждая в чем то лидирует - LM в получении первого токена, Ollama в скорости выдаче, а Osaurus такой компромиссный вариант аля средний во всем.
TFTF конечно важно, но на уровне какого то интерактива, а локальные модели это 99% про обработку данных и там не так важно как быстро тебе ответят имхо, если только это не автокомплит (но там уже давно другие инструменты).
Ну и как бы а почему нет, нативные приложения обычно всегда хоть на проценты но быстрее, тут скорее вопрос насколько прямые руки у разработчиков и какое будет комьюнити. А пока вот так, наоборот круто что не фейковые данные дали.

Вышел Osaurus — нативный LLM-сервер для Mac на базе Apple Silicon