Комментарии 11
Добавлю сюда ссылку на проект, если кому-то захочется посмотреть или попробовать:
https://github.com/evgenii-engineer/openLight
Сейчас это lightweight AI агент для Raspberry Pi с Telegram-интерфейсом.
Буду рад любому фидбеку.
Так вот почему мой умный чайник до сих пор не научился варить кофе - ему просто RAM не хватает! А я-то думал это производитель жадный :D
❌ Grafana + VMagent? Неееет
✅ целая LLM? Да!!!
Согласен, для метрик это был бы оверкилл
Но у меня задача была не про мониторинг, а про управление:
например, добавить пользователя в Matrix, дернуть сервис, сделать простые админские действия
И тут LLM выступает скорее как "интерфейс", а не как основная логика
То есть она убирает слой жёстких команд и делает всё чуть более гибким
Это слишком странный кейс для того чтобы применять llm. Куда разумнее сделать бекенд для выполнения нужных вам операций и интерфейс к нему.
Backend там и так есть.
Вопрос не в «сделать API», а в том, как к нему обращаться.
LLM здесь это не магия, а просто более гибкий интерфейс вместо набора жёстких команд.
Речь о том что этот "более гибкий интерфейс", мягко говоря ненадежен, и неоправданно много ресурсов кушает. По этому маневр мягко говоря странный.
Можно организовать ci\cd для заливки обновлений бекенда на малину, и при помощи LLM досыпать фиксированные функции которые будут надежно вызываться и при этом толком не требовать ресурсов.
Добавлю сюда ссылку на проект, если кому-то захочется посмотреть или попробовать:
https://github.com/evgenii-engineer/openLight
Сейчас это lightweight AI агент для Raspberry Pi с Telegram-интерфейсом.
Буду рад любому фидбеку.
А голосового ассистента для HA осилит?
Чтобы какую-то логику разговорную прикрутить

Почему большинство AI-агентов плохо работают на Raspberry Pi (и как я попытался это исправить)