Как стать автором
Поиск
Написать публикацию
Обновить
11
0
Иван Григорьев @Soloist

Пользователь

Отправить сообщение

Запускаем Aider в Docker и вайб-кодим

Уровень сложностиСредний
Время на прочтение2 мин
Количество просмотров5.2K

Aider — это open source программа для вайб-кодинга в терминале с подключением любых LLM-моделей.

Для локального вайб-кодинга понадобятся: Ubuntu, Docker, make и видеокарта (либо арендованный сервер). Далее набираем шесть несложных команд и ловим вайб.

Читать далее

Общение с LLM-моделью по собственной базе знаний в Obsidian

Уровень сложностиПростой
Время на прочтение2 мин
Количество просмотров12K

Copilot в Obsidian — полноценное решение для загрузки личной базы знаний в LLM-модель. С её помощью можно лучше понять себя, собрать мысли и найти новые связи в своих заметках.

Для подключения модели можно использовать множество различных поставщиков LLM-моделей.

В этой статье мы будем использовать локальную модель, запущенную с помощью Ollama. Поэтому нам понадобится командная строка, Docker и видеокарта (лучше от 24 Гб видеопамяти, или же для эксперимента можно арендовать GPU-сервер на пару часов).

Читать далее

Вызов функций в Ollama

Уровень сложностиСредний
Время на прочтение7 мин
Количество просмотров6.3K

Для Ollama доступно множество интеграций. Одна из популярных — Open WebUI. Это веб-интерфейс для управления Ollama, предлагающий широкие возможности и гибкие настройки. Недавно в Open WebUI появилась поддержка плагинов Pipelines, которая позволяет вызывать функции.

Читать далее

Запускаем ComfyUI на GPU AMD Radeon в Docker

Уровень сложностиСредний
Время на прочтение7 мин
Количество просмотров7K

В этой статье я хочу рассказать об опыте контейнеризации с использованием видеокарты Radeon от AMD. В качестве примера возьмём ComfyUI и поместим его в контейнер. А в конце, для демонстрации успешной работы, создадим видео в стиле аниме.

Читать далее

Запускаем Stable Diffusion на GPU AMD Radeon в Docker

Уровень сложностиСредний
Время на прочтение3 мин
Количество просмотров9.5K

Для запуска нам понадобится Ubuntu с установленными: git, make, docker и ROCm.

Инструкция по запуску короткая и простая, поэтому дополнительно разберём пример генерации изображения для этой статьи и продеманстрируем работу Stable Diffusion на AMD Radeon. Всё нижеизложенное протестировано на AMD Radeon RX 7900 XTX.

Читать далее

Запускаем PrivateGPT на GPU AMD Radeon в Docker

Уровень сложностиСредний
Время на прочтение6 мин
Количество просмотров3.4K

PrivateGPT — это проект, который расширяет возможности работы LLM-моделей, позволяя добавлять неограниченное количество личных данных.

31 октября 2023 AMD Radeon предоставила поддержку PyTorch для любительских видеокарт. Полный список видеокарт и ОС можно посмотреть здесь. Описанная инструкция протестирована на AMD Radeon RX 7900 XTX.

Для запуска нам понадобится Ubuntu с установленными: git, make, docker и ROCm.

Читать далее

Информация

В рейтинге
Не участвует
Откуда
Нижний Новгород, Нижегородская обл., Россия
Дата рождения
Зарегистрирован
Активность