Pull to refresh

Comments 13

PinnedPinned comments

Как дешевая альтернатива Cursor: VS Code + Roo Code + DeepSeek Chat API (после 16.30 UTC - какие-то копейки за миллион токенов. Рублей 10-15, по-моему). Кодит и вызывает инструменты вполне себе неплохо.
В качестве локальной модели - хорошо показывает devstral-small-2505 с квантизацией Q4. Но нужна VRAM от 16Gb, комфортно - от 24.

Спасибо тебе, дружище :)

Реально, это ровно то, что за что я люблю Bolt :)

Плюсик в карму :)

Предлагаю автору изучить проект cursor за 20 баксов он беря весь проект дорабатывает его и правит используя агенты - может запускать код на выполнение и считывание результата работы например в консоли или логах и автоматически править ошибки если они есть в новом коде и обнаружены агентом. Использует так же Claude в базе ( настраиваемо )

Да мне нравится оно тоже, но 20 баксов пока для меня дофига, да и не ясно, как там насчёт того, блокируют ли юзеров из РФ, или нет.

Болт в этом плане поразил абсолютным пофигизмом насчёт второго пункта.

Если сможете заплатить за подписку, то больше никаких ограничений нет. Пользователей из РФ не блокирует во время работы, прокси или VPN не нужен, в отличие от продуктов JetBrains (там ИИ-плагины отказываются работать с российскими ip).

Ну, как и Болт, собственно. Там тоже заплатить можно только через всякие плати.маркеты, но юзать можно без "трёх запрещённых букв".

А вот копайлот гитхабовский тоже блочит ру-IP.

Как дешевая альтернатива Cursor: VS Code + Roo Code + DeepSeek Chat API (после 16.30 UTC - какие-то копейки за миллион токенов. Рублей 10-15, по-моему). Кодит и вызывает инструменты вполне себе неплохо.
В качестве локальной модели - хорошо показывает devstral-small-2505 с квантизацией Q4. Но нужна VRAM от 16Gb, комфортно - от 24.

Попробую чекнуть Roo Code. Судя по описанию, должно быть похлеще Continue.

Спасибо тебе, дружище :)

Реально, это ровно то, что за что я люблю Bolt :)

Плюсик в карму :)

А насколько хватает длинны контекста DeepSeek? У него всего 64к контекст, для общения норм, но для агентного программирования на среднем проекте модели и с бОльшим контекстом часто забывают правила или что там было раньше.

Пфф, а у меня на локалке максимум 8к токенов контекста выходит. Скоро хочу купить уже полноценный ПК, а не ноут, ради всего этого.

  1. 64к вполне достаточно для некрупных задач.

  2. Roo Code может в режиме Orchestration разбивать задачу на мелкие подзадачи, которые требуют меньше контекста.

  3. У Roo Code есть опция Condensing context, которая может делать саммари по предыдущему контексту, "сжимая" его смысл до необходимого. Работает вручную или по достижению указанного предела в % контекста.

  4. Еще один повод следовать best practices и разбивать логику на небольшие сущности/файлы - чем меньше файл, тем быстрее и точнее работает LLM.

Как бесплатная альтернатива сейчас - Gemini CLI. Безлимитно работает на текущий момент.

В России через "три буквы" только? Просто тот же DeepSeek работает и без него. Я пополнил баланс через плати.маркет.

Оно разве не требует включенного биллинга?
А чего точно оно от меня требует - это Google Cloud Project. И еще каких-то permissions сверх того.

Попросил, вот, обычный gemini разъяснить эти хотелки - получил целую мета-простыню о Google Cloud. И какие-то шаги траблшутинга с помощью gcloud cli.

Что-то как-то перебор.. с yak shaving

Sign up to leave a comment.

Articles