Pull to refresh

Comments 9

С помощью кеша (который всего 5 минут) можно сильно экономить. Но надо AI-сессию разработки обновлять раз в 5 минут. На самом деле, при хорошем погружении, когда ты активно ревьювишь и говоришь что исправить тебе этих 5 минут хватает, лично я таймер ставлю на 4 минуты высылаю ему задачи из пула накопившихся недоделок, который успел подметить. Промах в кеш дорого стоит.

А теперь попробуйте какой нибудь проект на сотни Си файлов за 5 минут проверить (с учётом компиляции и тестирования работоспособности), а потом ещё и описать недостатки с возможными путями решения.

У меня есть папка Для чтения - все, что туда попадает, я тщательно исследую, разбираю и использую. Ваша статья - в нее.

16 гигов на вспомогательные инструменты?! Я аж поперхнулся. Вы на сервере кодите что ли?

Это требование создателей инструмента к железу, на котором он будет корректно работать.
Понятное дело, что все ОЗУ не будет постоянно на полную мощь использоваться.

Так и не понял, какой объём проекта. Сжигать миллионы на проект из 4 тысяч строк кода - что-то тут не так. Может просто вместо Cursor с его сабагентами заюзать какой-нибудь OpenCode?

Кто-то вообще сейчас уходит в крайний минимализм (pi).

MCP сами могут стать причиной жора контекста и токенов, так что их надо использовать осторожно. И всё-таки мне кажется что проблема не сколько в инструментах, сколько организации процесса...

Может нет внутренней документации, что каждый раз проект изучается как в первый раз? Не описана архитектура, не фиксируется ченжлог, планировать, разбивка на этапы, задачи, не фиксируются НЕрабочие варианты, чтобы снова нейронка не лезла в те же грабли...

За рамками статьи осталось много моментов, к сожалению

Полностью с вами согласен, что вопросов очень много. Одной статьи не хватит, чтобы на все ответить. Можно много чего рассказать о документации и как запросы правильно составлять и отправлять. Все сейчас проходят этот путь. Куда без этого. Понятное дело, что не правильно настроенные MCP жрут токены. Но все это не относится к теме данной статьи.

Ни в коем случае я не говорю, что предлагаю какой-то универсальный инструмент на все случаи жизни. Более того упор делается на то, что MCP надо использовать, но правильно настроить в каждом конкретном случае. Целью статьи является поделиться методом, полученным опытным путем, который реально работает и позволяет экономить деньги. И у меня не заработало сразу, все как надо. Пришлось несколько раз модифицировать правила, чтобы их оптимизировать. Все настройки взяты с машины на которой во время выполнения запросов видно, как запускаются MCP-инструменты. Запросы реально заработали быстрее. И в результате данные действительно берутся из кэша.

Несколько тысяч строк на Go можно просто держать в контексте. Там 90% это полу-пустые строки.

Курсор уже умеет в поиск по коду. Это не тратит токены как таковые. У них отличный индекс кодовой базы.

Используйте Composer 2. Это отличная модель на уровне Sonnet. В тарифы включено примерно x3-4 от стоимости тарифа.

Мне кажется тут проблема изначально не в инструменте, а в том кто им пользуется.

Composer 2 мне тоже очень нравится и я его активно использую последний месяц.
Не понятно, чем вызвано ваше последнее предложение?
Да, разработчик Cursor заявляют, что они используют свою векторную базу для поиска по коду "из коробки". И я не говорю, что Cursor плохой и надо его выкинуть.
Но владельцам Cursor очень выгодно, чтобы пользователи тратили как можно больше токенов.
И каждый пользователь сам определяет, как пользоваться инструментами.

Sign up to leave a comment.

Articles