Комментарии 3
Ставил Оламу еще летом, но она при генерации ответа из командной строки положила мне 8 gb m1 air. Тогда я понял, что это печатная машинка, и нужно было 16 gb брать! Как в требованиях к локальным моделям и есть сейчас.
Плохому танцору всегда процессор мал.
https://jan.ai
в списке моделей покажет сколько надо памяти - установится или нет.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Библиотеки Ollama Python Library и Ollama JavaScript Library стали доступны на GitHub