Comments 12
А на 6 гб vram прокатит?
Лет десять сидел в ридонли Хабрахабра, и это один из немногих случаев, когда действительно хочется оставить комментарий. Завел аккаунт, наконец. Просто хотелось сказать спасибо Вам за Вашу работу. Давно в мыслях сидит сделать что-то подобное, но кроссплатформенное и с несколько иным функционалом. Ваш материал промотивировал начать пробовать. Будем сидеть, вчитываться и курить мануалы.
Добра!
Ты чего наделал!:) Я сам пишу себе такого агента, Омни, который делает точь в точь, что ты описал.
И в тоже время, огромное спасибо!
А что насчёт codex cli, claude code, qwen code?
Основной упор на локальный инференс и опенсорс модели. Хотя оллама дает возможность использовать облачные так же просто как и локальные без перенастройки.
Теперь настала пора открыть для себя opencode
Спасибо, открыл. Консольный интерфейс приятный, есть что взять на заметку.
Но поставили бы вы его на боевой сервер? Автоматические агенты — это круто, но когда на просьбу проверить погоду OpenCode, не моргнув глазом и без спроса, установил и запустил в системе несколько приложений, я задумался. Подозреваю, что такое поведение можно и нужно настраивать.
Всё это здорово, но вот что подумал, не потому ли мы пишем свои приложения, что хотим полностью контролировать их работу, а не тратить время на изучение чужих интерфейсов?
И в дополнение: раз уж вы даете советы, не могли бы вы рассказать, как быстро и просто настроить работу OpenCode через сервер Ollama в локальной сети? Ситуация, когда на машине с агентом нет интернета — это критически важный сценарий использования.
Идея на самом деле отличная, продолжайте! Я сейчас для всего этого использую Warp с его киллер-фичей Warpify, когда можно подключиться к любому серверу по ssh и “варпифицировать” его консоль (добавить туда AI-ассистента).
Ботинок — локальный консольный AI-агент для тех, у кого мало VRAM