Обновить
1
0
Marat@Margai

Пользователь

Отправить сообщение

А mlx как запускаете? Через нативную библиотеку: Python или другие инструменты?

Как запускаете модели MLX? Я использовал LM Studio. Ollama и llama.cpp не поддерживают mlx пока. Вроде mlx должен быть более производительными на mac, так как и это нативная библиотека от Apple. Ещё на mac можно сделать кластер с помощью exo: https://exolabs.net/ и https://github.com/exo-explore/exo

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность

Специализация

Десктоп разработчик, Бэкенд разработчик
Стажёр
JavaScript
Git
SQL
PostgreSQL
Python
Английский язык
ООП
Linux
Docker
Nginx