Как стать автором
Обновить

Комментарии 26

Про изящный интерфейс windsurf вначале забавно, я понимаю что имеется ввиду, т.к. использую cursor, но gif, которые должны бы были это иллюстрировать выглядят как точные копии.

Для сравнения в Cursor вам нужно принять изменения, и только потом вы сможете посмотреть на результаты.

Это и все выводы в смежных абзацах не соответствуют действительности, cursor точно также сразу сохраняет на диск все изменения. Возможно, связано с изменением политики автосохранения файлов на onFocusChange, но это очень маловероятно.

Главное, чего мне не хватает в обоих продуктах, — это более надежный цикл отладки.

Не совсем понимаю, о каком цикле отладки может идти речь. По хорошему для этого нужно 2 вещи: статический анализ и автотесты. Подключаете и настраиваете инструменты, пишете тесты (тем же ai) и просите исправить ошибки - cursor прекрасно этот цикл использует, с YOLO режимом даже подтверждать запуск команд в консоли не нужно.

Про "цикл отладки" - я думаю тут речь о том, что Devinу в теории можно просто отдать багу из таск трекера, а все остальное он сделает сам (ну в идеале, пока совсем не всегда делает, конечно). Может быть можно в .cursorrules прописать подход как вы написали "статический анализ и автотесты" и оно заработает. Единственное что, думаю чтобы нормально заработало нужна будет рассуждающияя модель на шаге продумывания архитектуры решения и тестов. Т.е. :

  1. Прочитал задачку, отдал ее подумать в o1/o3/R1

  2. Получил план решения и что проверяют тесты - преедал его в Claude

  3. Claude Написал код, проганл тесты, вернул в o1 на проверку

и так по кругу, пока проблема не решена.

нужна будет рассуждающияя модель на шаге продумывания архитектуры решения и тестов

Да, вроде уже к этому и идет, даже на уровне моделей есть r1-llama/qwen/etc, где размышляет одна модель, а ответ на основе рассуждений пишет другая и показывает результаты выше.

Думаю инструменты тоже подтянутся в этом плане

Да, вроде уже к этому и идет, даже на уровне моделей есть r1-llama/qwen/etc, где размышляет одна модель, а ответ на основе рассуждений пишет другая и показывает результаты выше.

Думаю инструменты тоже подтянутся в этом плане

Я понимаю что это перевод, но Cline это вполне самостоятельный плагин для vscode. Никакой windsurf или cursor ему не нужен чтобы выполнять задания как агенту. Кмк это скорее конкурирующие решения нежели взаимодополняющие. Плюс в отличие от остальных cline open source с уже сложившимся сообществом. Не задавался целью, но почти уверен что можно использовать бесплатный deepseek как llm backend, в таком случае не понятно зачем вообще использовать платные решения (думаю открытые решения в итоге все равно победят, пусть у них будет и платная saas версия)

Автор собственно пишет, что т.к. windsurf и cursor  в основе своей vs code, то плагины к ним тоже подходят, и cline на них прекрасно работает тоже

Пару дней назад буквально подключал DeepSeek к Cline в поисках альтернативы дорогому Claude Sonnet. Результат странный. Cline стал показывать огромное потребление токенов на выходе. По несколько миллионов за раз. При этом он уходил в цикл, сам делал какой-то вывод и пытался исправить проблему (безуспешно). Итого показал расход output в 19 млн токенов за несколько минут ))

После такого опыта я решил попробовать Сursor, оказался впечатлен четкостью и скоростью его работы, остаюсь на нем. Пришел к выводу, что хорошая среда - это не просто подключенный ИИ, но и, как минимум, много работы с правильным индексированием файлов и удержанием контекста.

У меня deepseek с cline тоже так себе работал, даже с дополнительным системным промптом.

Чуть ниже описал свой текущий подход:

Из моделей - клауд конечно топ. Но я использую несколько для разных целей. Gemini 2.0 flash thinking для создания плана на тасках средней сложности (справляется неплохо, если данных достаточно). Codestral на реализацию таких планов. Для мелочей подходит и codestral и qwen2.5 7b (который можно и локально поднять).

Получается полностью бесплатно.

Но если есть желание внести куда-нибудь денежку малую, то вариантов становится больше и можно посмотреть на какую-нибудь qwen 2.5 coder 32b, которая по бенчам очень неплохо выглядит (но с cline я её не пробовал).

Но на это надо тратить время, само собой. В этом смысле коробочные решения, конечно, лучше. Но моя сборка на моих тасках лучше работает, чем Cursor.

Использую Continue + ollama c локальными моделями. Абсолютно бесплатно и без подписок. Встроенной GPU в Ryzen хватает для qwen2.5-coder вполне.

Подозреваю 7b. Вот, не так давно натыкался на табличку с memory usage от пользователя reddit: https://www.reddit.com/r/LocalLLaMA/comments/1g8tit7/benchmarking_qwen_25_14b_q5_vs_coder_7b_q8_25_v3/

Аналогично. Плюс, что мне очень важно, есть поддержка и решений от jetbrains, не только vs code.

Чего не хватает обоим

Да, связка VSCode + Cline/RooCode + Continue закрывает большую часть функционала Cursor и предоставляет пару полезных фич, которые в Cursor не известно когда появятся. По качеству агента разницы тоже особо не заметил. Стоимость при этом: 0.

На Cline есть быстрое разбиение на таски. Это то, что успел заметить за час тестов, пока не перешел на Cursor. Основная проблема Cline для меня в том, что использование в нем Claude Sonnet выходит дорого (в разы дороже курсора по моим расчетам во время теста), а с другими моделями работает заметно хуже.

Давно не пользовался курсором. Но из относительно новых фич клайна - использование mcp серверов, они вроде раньше курсора внедрили авто выполнение команд. Ну и а целом курсор же не богодельня, у них может и есть скидки на антропикосвкий апи, но не бесплатный же он. Курсор очень сильно скальпирует контекст. В их интересах потратить на апи как можно меньше денег при качестве достаточном чтоб не отменяли подписку. У клайна же все наоборот - гуляем на все, т.к. апишка с тебя. У него только системный промпт под 10к токенов. И улететь за миллион токенов при работе над парой файлов не трудно. Ради интереса посидел с ним пару часов, слил почти 20 баксов, и на этом порешали. При чем 'проект' был 0 и вроде ничего сложного - написать плейврайт тесты для сравнения данных в двух гридах. Самому написать получилось быстрее, при том что впервые ковырял этот фреймворк.

В их интересах потратить на апи как можно меньше денег при качестве достаточном чтоб не отменяли подписку.

У cursor есть лимит на 500 "быстрых" запросов, дальше безлимитные "медленные", но можно же и свои ключи к api прописать и использовать напрямую по той же схеме + включить быстрые за отдельную стоимость и да, там тоже деньги быстро улетают.

По поводу контекста - есть настройка "Large context", которая это скальпирование по видимому отключает, быстрее тратя лимит быстрых запросов (или платных). Но сравнить мне не с чем, поэтому интересуюсь, спасибо.

  1. Добавление MCP серверов практически по клику. Не смотрел как они под капотом промпты настроли, но добавляет всякие интеграции с использованием mcp он действительно хорошо (у меня из юзабельных, что он сам сделал: RAG для контрактов и доков по проекту и поиск по stack overflow и reddit).

  2. Векторный поиск по коду (это скорее не фича, но преимущество), который работает лучше чем у Cursor (у них вроде tree-sitter).

  3. Как выше написали, в плюсах ещё быстрое разбиение на таски.

    Из моделей - клауд конечно топ. Но я использую несколько для разных целей. Gemini 2.0 flash thinking для создания плана на тасках средней сложности (справляется неплохо, если данных достаточно). Codestral на реализацию таких планов. Для мелочей подходит и codestral и qwen2.5 7b (который можно и локально поднять). Но я периодически пробую разные модели, для чего-то одно больше подходит, для чего-то другое. В любом случае, можно получить отличный результат совершенно бесплатно (хотя у меня gemini корпоративный, можно на бесплатке он сейчас совсем плохо работает, но раньше норм был).

Я в курсор , я не программист, и сбрасываю триал, как это все развернуть есть где то мануал, только мне нужно чтобы он код редактировал как Claude, я потом что вообще особо не понимаю что , происходит , точнее не как Claude, а получше, хочу сделать себе АИ помощника, для магазина который будет консультировать клиентов, максимально хорошо, нап

Я сделал это за тебя, не благодари: https://aistudio.google.com/app/prompts?state={"ids":["1R6iwRj8IuYGNduOmxc6r5FuZAjeHyIoy"],"action":"open","userId":"116226768640275319857","resourceKeys":{}}&usp=sharing

Пробежался глазами, вполне себе адекватная инструкция
Пробежался глазами, вполне себе адекватная инструкция

Пункты про локальное развертывание моделей пропусти. Остальное тебе должно помочь.

При прочтении не покидало ощущение что уже читал тоже самое, потом увидел картинку сравнения и понял что посмотрел видео от автора с авто переводом Яндекса ещё месяц назад )))

Хочу вступится за zed, тоже много плюшек для работы с llm, как локальными так и другими

Работает очень быстро и приятно, это примерно как вам полностью под себя настроенный но который не ломается с выходом новой версии библиотеки на Lua

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации