Обновить

Комментарии 10

Что-то доки у вас по ссылке нет. По этому спрошу здесь:

  • Имеется только python интерфейс? Чего-то более повседневного типа cli или vscode расширения не предвидится?

  • Можно ли на инпут подать директорию, чтобы он её проиндексировал, и работал в контексте "проекта"?

  • Какой скоуп задач потенциально можно решить с помощью вашей библиотеки? Она про обработку одного документа в упряжке в виде python или это полноценная агентная система, которая может гулять по файловой системе и выполнять различные действия?

  • Есть ли аналог copilot-instructions.md чтобы задавать общий контекст и рекомендации для агента?

Нашёл доку. И более внимательно перечитал readme.
https://github.com/DmitrL-dev/AISecurity/tree/main/rlm-toolkit/docs
Выглядит мощно, сегодня обязательно попробую. Если жор токенов и правда можно победить таким образом, а качество при этом не сильно падает, то это конечно epicwin, и тот же opencode можно будет "выкидывать".

Привет, да вставилось как то криво, пробовал сейчас поправить в статье и что то пошло не так)))
обязательно поправлю, благодарю)
Плагин только пока только для Антигравити, так как я в основном с ним работаю, в принципе так как все они левой пяткой (и криво, к примеру у Антиграва API вообще хранится в plain text) написаны с VSCode-а, то не трудно под себя адаптировать. Могу для Cursor ещё в принципе сделать.
Сейчас решена проблема жора токенов, НО не решена пока проблема именно "склероза" моделей из вне, т.е. локальный LLM идёт как прослойка условная, стата как раз экстешеном показывает как экономится это всё, компрессия достигает х56
Скрин экстешена сейчас в статью добавлю.

Насчет антигравити и проблемы авторизации: есть предположение, что оно требует, чтобы телефон привязанный к аккаунту был ассоциирован с разрешенной юрисдикцией. У вас телефон физически вне подсанкционной территории?

Вы про то как я в антигравии работаю?

Учетка другой страны)

Подскажите, для этого предполагается использование локальной модели? Т.е. без мощной видеокарты я могу это использовать?

Да, можно просто и CPU, если будут затруднения, то напишите либо тут, либо в гит issue

Для большинства задач наверное будет достаточно вместо подачи в LLM "огромного контекста" просто суммаризировать его, ну или выкинуть явно нерелевантное текущему запросу.

Судя по объемным комитам это вайбкодинг

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации