Хабр
Все потоки
Поиск
Написать публикацию
Настройки
Войти
Обновить
1
@Vereha
Пользователь
Подписаться
Отправить сообщение
Профиль
Статьи
Посты
Новости
Комментарии
1
Ещё
Открыть список
Закладки
Подписчики
Подписки
Скопировать ссылку на RSS
Как я установил Ollama на Ubuntu 24.04 и начал обучать локальную LLM под свои задачи
Vereha
25 ноя 2025 в 05:31
А что с мистралем такого особенного?
Информация
В рейтинге
Не участвует
Зарегистрирован
24 ноября 2025
Активность
7 марта в 16:28
А что с мистралем такого особенного?