Comments 9
С помощью кеша (который всего 5 минут) можно сильно экономить. Но надо AI-сессию разработки обновлять раз в 5 минут. На самом деле, при хорошем погружении, когда ты активно ревьювишь и говоришь что исправить тебе этих 5 минут хватает, лично я таймер ставлю на 4 минуты высылаю ему задачи из пула накопившихся недоделок, который успел подметить. Промах в кеш дорого стоит.
У меня есть папка Для чтения - все, что туда попадает, я тщательно исследую, разбираю и использую. Ваша статья - в нее.
16 гигов на вспомогательные инструменты?! Я аж поперхнулся. Вы на сервере кодите что ли?
Так и не понял, какой объём проекта. Сжигать миллионы на проект из 4 тысяч строк кода - что-то тут не так. Может просто вместо Cursor с его сабагентами заюзать какой-нибудь OpenCode?
Кто-то вообще сейчас уходит в крайний минимализм (pi).
MCP сами могут стать причиной жора контекста и токенов, так что их надо использовать осторожно. И всё-таки мне кажется что проблема не сколько в инструментах, сколько организации процесса...
Может нет внутренней документации, что каждый раз проект изучается как в первый раз? Не описана архитектура, не фиксируется ченжлог, планировать, разбивка на этапы, задачи, не фиксируются НЕрабочие варианты, чтобы снова нейронка не лезла в те же грабли...
За рамками статьи осталось много моментов, к сожалению
Полностью с вами согласен, что вопросов очень много. Одной статьи не хватит, чтобы на все ответить. Можно много чего рассказать о документации и как запросы правильно составлять и отправлять. Все сейчас проходят этот путь. Куда без этого. Понятное дело, что не правильно настроенные MCP жрут токены. Но все это не относится к теме данной статьи.
Ни в коем случае я не говорю, что предлагаю какой-то универсальный инструмент на все случаи жизни. Более того упор делается на то, что MCP надо использовать, но правильно настроить в каждом конкретном случае. Целью статьи является поделиться методом, полученным опытным путем, который реально работает и позволяет экономить деньги. И у меня не заработало сразу, все как надо. Пришлось несколько раз модифицировать правила, чтобы их оптимизировать. Все настройки взяты с машины на которой во время выполнения запросов видно, как запускаются MCP-инструменты. Запросы реально заработали быстрее. И в результате данные действительно берутся из кэша.
Несколько тысяч строк на Go можно просто держать в контексте. Там 90% это полу-пустые строки.
Курсор уже умеет в поиск по коду. Это не тратит токены как таковые. У них отличный индекс кодовой базы.
Используйте Composer 2. Это отличная модель на уровне Sonnet. В тарифы включено примерно x3-4 от стоимости тарифа.
Мне кажется тут проблема изначально не в инструменте, а в том кто им пользуется.
Composer 2 мне тоже очень нравится и я его активно использую последний месяц.
Не понятно, чем вызвано ваше последнее предложение?
Да, разработчик Cursor заявляют, что они используют свою векторную базу для поиска по коду "из коробки". И я не говорю, что Cursor плохой и надо его выкинуть.
Но владельцам Cursor очень выгодно, чтобы пользователи тратили как можно больше токенов.
И каждый пользователь сам определяет, как пользоваться инструментами.
Тюнинг Cursor: как я укротил AI-ассистента и радикально снизил счета за токены с помощью MCP-серверов