Обновить

Как я создала локального AI-ассистента для системного аналитика: от Telegram-бота до полноценного помощника (часть 1)

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели9.5K
Всего голосов 7: ↑5 и ↓2+3
Комментарии8

Комментарии 8

Молодец а насколько мощен комп что поддерживает локальную ллм? Мой например потянет только жпт2 судя по всему

Благодарю. У меня ThinkPad Carbon Gen 10 на 32 ГБ оперативы и 1ТБ SDD

А ну красиво жить не запретишь) мы в провинциях выживаем на бесплатных лимитах коллаба для Т4...

Я конечно понимаю, что в провинции сейчас посложнее стало. Но камон, речь о четырехлетнем ноуте который сейчас можно найти меньше чем за $1000.

Можно но повторив слова великих...

Можно а зачем?

Для того чтобы поднять локального ассистента выложить за ноут 100к, мы тут в несколько более стесненных условиях проживаем)

можно глянуть в сторону OpenRouter (есть бесплатный доступ к неплохим ИИ, но тут нужно будет подключение по api ключу), либо как вариант можно арендовать сервер с GPU у selectel (там цены стартуют от 40-50 рублей за час аренды)

Круто, молодец! А в телеграм получается можно писать сообщения и получать ответы только пока компьютер бодрствует и локальный сервер работает. Если компьютер уснёт, то и сервер перестанет обрабатывать сообщения например, если в дороге с телефона пишешь?

Выглядит прикольно и потенциально. Но не понял, в чем отличие от обычных напоминаний? Выгляди пока как экономия в 1 минуте - заполнении напоминалки

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации