Очередная супер-платформа от Яндекса, которую они один раз обновят, в лучшем случае. После этого у них резко запал теряется и они новую платформу начинают проектировать. Так было, например, с Enjoy Pro от Яндекса.
Самое интересное для меня - сравнение тарифа с абонентской платой и тарифа с оплатой API-запросов. К сожалению, информации об этом очень мало. Вот чтобы прямо сравнить лоб в лоб - "30 миллионов токенов у Cursor равно 1% от лимита на тарифе за 200 долларов против 30 миллионов токенов на абонентском тарифе равно 1% от недельного лимита". Вот такое сравнение было бы понятным и можно было бы что-то планировать и решать. Про задержки на абонентском тарифе спасибо, не знал.
Немного дополнений по статье:
Начиная с версии 3.0.13 или 7.04.2026 (не знаю, то ли от версии зависит, то ли для всех с этого дня включили) Cursor для жителей России скрывает модели от Anthropic. В списке всех моделей эти модели просто исчезают. Если модель была выбрана для чата, то при отправке промпта появляется сообщение: "This model provider is not supported in your region. Visit https://cursor.com/docs/account/regions for more information.". Теперь работает только через прокси. Можно настроить прокси прямо в Cursor и обязательно отключить HTTP/2.
В Cursor модель Claude Opus тоже запускает агентов для поиска по кодовой базе, поиска в сети или через mcp. Но в Cursor запускается модель Composer 2 (Fast), которая существенно дешевле Opus и хорошо экономит лимит тарифа. Пока работают эти субагенты, Opus ждет результата их работы и не делает никаких выводов раньше времени. Если работает несколько агентов, то они работают параллельно друг другу.
Действительно. Ну вот этот вопрос можете задать. Задача на логику из 2024 года. Алиса просто начинает на этой задаче жестко глючить и потом умирает, даже не закончив свой глюк. А что же остальные модели: Grok - ответ на оба вопроса Mistral - кое-как ответил на первый вопрос про пиццу DeepSeek - ответ на оба вопроса ChatGPT - не ответил на оба вопроса Qwen - ответ на оба вопроса Все модели выше запускались через веб-интерфейс с их сайтов. Использовались модели по умолчанию (какая модель предлагалась при открытии страницы, ту и использовал), везде использовался бесплатный тарифный план.
Ради интереса решил проверить платную модель Gemini 3.1 Pro (через Cursor в режиме Ask) - ответ на оба вопроса.
Итого: модель Алиса вне конкуренции. )) Даже ChatGPT (доступный бесплатно) хоть и не ответил на оба вопроса, но закончил свой ответ.
Конечно, я прекрасно понимаю, что мы пока со своими моделями отстаем от мировых. Но тогда и позиционировать надо правильно модели, а не продавать их за деньги и называть громко YandexGPT 5.1 Pro. А то ожидания от модели слишком расходятся с действительностью.
Спасибо за статью. Мой подход к работе с нейросетями практически полностью совпадает с вашим. Я вначале пишу подробное техническое задание (на проект целиком либо на внедрение какого-то модуля в проект), потом дополнительно его прогоняю через нейросеть (Grok и/или Opus) с просьбой найти потенциальные проблемы и упущенные нюансы в ТЗ. А уже затем отдаю ТЗ в Opus на составление подробного плана разработки. Если ТЗ большое, то оно разбивается на фазы разработки, затем для каждой фазы создается подробный план разработки. И уже после этого нейросеть по плану пишет код.
Разбивка по этапам
Естественно, в каждом плане отдельным пунктом идут тесты, линтеры и прочее. Конечно, Opus редко косячит, но иногда бывает. Тогда им же написанные тесты находят в его коде ошибки, либо линтер их находит. И на основе результатов тестирования Opus исправляет свой код.
Вот читаю я статьи, в которых все с нейронками стали такими успешными и продуктивными, делают по 100500 проектов в неделю, сутками гоняют нейронки и т. д. А стоит чуть внимательно посмотреть статью, а там нейронки среднего и нижнего ценового диапазона, которые работают чуть получше Гигачата, но значительно хуже Opus. И возникает такой вопрос: ребята, а вы точно такие успешные и продуктивные? А почему тогда у вас не хватает денег на нормальную подписку Claude, чтобы можно было гонять нормальные модели (тот же Opus)? Может быть, стоит чуть снизить темп успешного успеха и делать не 100500 проектов в неделю, а один, но нормально? И продавать его за нормальные деньги, чтобы хватало на нормальную подписку.
Плотность запросов от человека сильно меньше, чем от специализированного инструмента. Написано же в статье - цена рассчитывается из предпосылок, что не все будут эти лимиты выбирать. Это как с провайдерами интернета - продают ширину пропускания заведомо больше (в пересчете на количество клиентов), чем у них физически есть. Ради интереса поинтересуйтесь у своего провайдера, сколько стоит гарантированная пропускная способоность вашего канала.
Основная модель: Claude Opus 4.6, Composer 2 в качестве субагента (поиск по кодовой базе, быстрые поиски в интернете) - он сам включается, видимо, его основная модель вызывает. На момент начала разработки (Этап 1) было использовано 13% от лимита. На момент окончания активной разработки (Этап 21) было использовано 25% от лимита. В абсолютных числах на это приложение было потрачено около 30 миллионов токенов.
Причем, это не просто тупой агент генерировал нейрослоп по шаблону, а была пошаговая работа с большим техническим заданием, которое было разбито на этапы. Работа над проектом велась с пустой директории: нейронка сделала всё, начиная от окружения devcontainers, заканчивая документацией проекта и написанием тестов.
Статистика git
Я не знаю, сколько бы потребовалось токенов на Claude Code, но меня этот тариф на Cursor прямо покорил. До этого использовал тариф за 20$ - это баловство, конечно.
Да никак, наверное. Судя по промптам ("«Переименуй переменные в этом куске», «напиши docstring», «переведи этот текст».") автор из тех, кто перед походом в туалет через LLM проверяет, включен ли там свет. Возможно, на его запросах и будет выгода. У меня, например, сейчас ТЗ на 1100 строк, которое я планирую отдать Claude Opus. Мне нужно в данном случае максимальное качество и я не собираюсь выигрывать пару долларов на бесплатных моделях в ущерб своей работе.
Да это понятно, я сам так же делаю. Просто тут есть стахановцы, у которых, по их словам, агенты в несколько потоков чуть ли не круглосуточно нон-стоп что-то делают. Вот мне и интересно, что же за задачи у них такие?
Всё правильно у вас написано. Если хочется предсказуемой отдачи от нейронки, нужно самому погрузиться в тему и максимально подробно написать ТЗ, да еще несколько раз предварительно его прогнать через ИИ на предмет узких мест, забытых важных нюансов и т. д.
Я недавно писал ТЗ два дня, перелопатил тонну сайтов, достиг бесплатных листов на двух нейронках из-за его уточнения. Зато потом закинул его в Opus 4.6 и он мне за полчаса написал рабочий продукт объемом где-то на месяц моей работы.
Что там люди по 8 часов в день с нейронкой делают, мне непонятно. Для такой загруженности нужно иметь промпты объёмом с "Войну и мир" либо какой-то трешак в промышленных масштабах генерировать.
Я вот вообще не понимаю, как можно минимум 8 часов не остановки работать с нейронкой. Мне для написания нормального промпта для неё нужно погрузиться в тему, максимально подробно описать планируемые функции внедрения, прописать граничные случаи, попросить внедрить систему контроля ошибок и т. д. Что люди умудряются генерировать по 8 часов в день, интересно? Где-то реализовали божественный промпт "сделай хорошо, а плохо не делай", а я не в курсе? ))
А я про статью ни слова не сказал. Это комментарий был к потоку сознания выше. Я лучше почитаю выжимку через нейронку, чем буду пытаться продраться через такую тонну косноязычного текста.
Я сейчас пробежался по статьям в ленте за последние несколько дней. Там мрак: - оценка статьи 0, 20 комментариев - куча просмотров, 0 оценок, 0 комментариев - -25 оценка статьи, в комментариях идет живое обсуждение.
Очередная супер-платформа от Яндекса, которую они один раз обновят, в лучшем случае. После этого у них резко запал теряется и они новую платформу начинают проектировать. Так было, например, с Enjoy Pro от Яндекса.
Самое интересное для меня - сравнение тарифа с абонентской платой и тарифа с оплатой API-запросов. К сожалению, информации об этом очень мало. Вот чтобы прямо сравнить лоб в лоб - "30 миллионов токенов у Cursor равно 1% от лимита на тарифе за 200 долларов против 30 миллионов токенов на абонентском тарифе равно 1% от недельного лимита". Вот такое сравнение было бы понятным и можно было бы что-то планировать и решать. Про задержки на абонентском тарифе спасибо, не знал.
Немного дополнений по статье:
Начиная с версии 3.0.13 или 7.04.2026 (не знаю, то ли от версии зависит, то ли для всех с этого дня включили) Cursor для жителей России скрывает модели от Anthropic. В списке всех моделей эти модели просто исчезают. Если модель была выбрана для чата, то при отправке промпта появляется сообщение: "This model provider is not supported in your region. Visit https://cursor.com/docs/account/regions for more information.". Теперь работает только через прокси. Можно настроить прокси прямо в Cursor и обязательно отключить HTTP/2.
В Cursor модель Claude Opus тоже запускает агентов для поиска по кодовой базе, поиска в сети или через mcp. Но в Cursor запускается модель Composer 2 (Fast), которая существенно дешевле Opus и хорошо экономит лимит тарифа. Пока работают эти субагенты, Opus ждет результата их работы и не делает никаких выводов раньше времени. Если работает несколько агентов, то они работают параллельно друг другу.
Ох, опять не тот промпт. )) Ну тогда сами расскажите, в чём же преимущество Алисы?
Докладываю из 2026 года: Алиса плюс (YandexGPT 5.1 Pro) не смогла ответить на оба вопроса.
Действительно. Ну вот этот вопрос можете задать. Задача на логику из 2024 года. Алиса просто начинает на этой задаче жестко глючить и потом умирает, даже не закончив свой глюк.
А что же остальные модели:
Grok - ответ на оба вопроса
Mistral - кое-как ответил на первый вопрос про пиццу
DeepSeek - ответ на оба вопроса
ChatGPT - не ответил на оба вопроса
Qwen - ответ на оба вопроса
Все модели выше запускались через веб-интерфейс с их сайтов. Использовались модели по умолчанию (какая модель предлагалась при открытии страницы, ту и использовал), везде использовался бесплатный тарифный план.
Ради интереса решил проверить платную модель Gemini 3.1 Pro (через Cursor в режиме Ask) - ответ на оба вопроса.
Итого: модель Алиса вне конкуренции. )) Даже ChatGPT (доступный бесплатно) хоть и не ответил на оба вопроса, но закончил свой ответ.
Конечно, я прекрасно понимаю, что мы пока со своими моделями отстаем от мировых. Но тогда и позиционировать надо правильно модели, а не продавать их за деньги и называть громко YandexGPT 5.1 Pro. А то ожидания от модели слишком расходятся с действительностью.
Я бы не стал доверять Алисе подготовку моего ребенка к экзамену. ))
Спасибо за статью. Мой подход к работе с нейросетями практически полностью совпадает с вашим. Я вначале пишу подробное техническое задание (на проект целиком либо на внедрение какого-то модуля в проект), потом дополнительно его прогоняю через нейросеть (Grok и/или Opus) с просьбой найти потенциальные проблемы и упущенные нюансы в ТЗ. А уже затем отдаю ТЗ в Opus на составление подробного плана разработки. Если ТЗ большое, то оно разбивается на фазы разработки, затем для каждой фазы создается подробный план разработки. И уже после этого нейросеть по плану пишет код.
Естественно, в каждом плане отдельным пунктом идут тесты, линтеры и прочее. Конечно, Opus редко косячит, но иногда бывает. Тогда им же написанные тесты находят в его коде ошибки, либо линтер их находит. И на основе результатов тестирования Opus исправляет свой код.
Вот так план разработки выглядит.
Только хотел про OnlyOffice написать. Зачем им еще один велосипед, если в Европе уже есть компания с прекрасным продуктом.
Вот читаю я статьи, в которых все с нейронками стали такими успешными и продуктивными, делают по 100500 проектов в неделю, сутками гоняют нейронки и т. д. А стоит чуть внимательно посмотреть статью, а там нейронки среднего и нижнего ценового диапазона, которые работают чуть получше Гигачата, но значительно хуже Opus. И возникает такой вопрос: ребята, а вы точно такие успешные и продуктивные? А почему тогда у вас не хватает денег на нормальную подписку Claude, чтобы можно было гонять нормальные модели (тот же Opus)? Может быть, стоит чуть снизить темп успешного успеха и делать не 100500 проектов в неделю, а один, но нормально? И продавать его за нормальные деньги, чтобы хватало на нормальную подписку.
Плотность запросов от человека сильно меньше, чем от специализированного инструмента. Написано же в статье - цена рассчитывается из предпосылок, что не все будут эти лимиты выбирать.
Это как с провайдерами интернета - продают ширину пропускания заведомо больше (в пересчете на количество клиентов), чем у них физически есть. Ради интереса поинтересуйтесь у своего провайдера, сколько стоит гарантированная пропускная способоность вашего канала.
Там чистая работа через API Claude идёт. Просто за это API напрямую платит Cursor, а пользователи ему в рамках подписки.
Тариф за 200$ на Курсоре. Большой проект:
Основная модель: Claude Opus 4.6, Composer 2 в качестве субагента (поиск по кодовой базе, быстрые поиски в интернете) - он сам включается, видимо, его основная модель вызывает.
На момент начала разработки (Этап 1) было использовано 13% от лимита. На момент окончания активной разработки (Этап 21) было использовано 25% от лимита. В абсолютных числах на это приложение было потрачено около 30 миллионов токенов.
Причем, это не просто тупой агент генерировал нейрослоп по шаблону, а была пошаговая работа с большим техническим заданием, которое было разбито на этапы. Работа над проектом велась с пустой директории: нейронка сделала всё, начиная от окружения devcontainers, заканчивая документацией проекта и написанием тестов.
Я не знаю, сколько бы потребовалось токенов на Claude Code, но меня этот тариф на Cursor прямо покорил. До этого использовал тариф за 20$ - это баловство, конечно.
Вот в момент активной реализации плана. Никаких 7 гигабайт нет. Возможно, если обмазаться параллельно работающими агентами, нагрузка будет выше.
Да никак, наверное. Судя по промптам ("«Переименуй переменные в этом куске», «напиши docstring», «переведи этот текст».") автор из тех, кто перед походом в туалет через LLM проверяет, включен ли там свет. Возможно, на его запросах и будет выгода.
У меня, например, сейчас ТЗ на 1100 строк, которое я планирую отдать Claude Opus. Мне нужно в данном случае максимальное качество и я не собираюсь выигрывать пару долларов на бесплатных моделях в ущерб своей работе.
Да это понятно, я сам так же делаю. Просто тут есть стахановцы, у которых, по их словам, агенты в несколько потоков чуть ли не круглосуточно нон-стоп что-то делают. Вот мне и интересно, что же за задачи у них такие?
Всё правильно у вас написано. Если хочется предсказуемой отдачи от нейронки, нужно самому погрузиться в тему и максимально подробно написать ТЗ, да еще несколько раз предварительно его прогнать через ИИ на предмет узких мест, забытых важных нюансов и т. д.
Я недавно писал ТЗ два дня, перелопатил тонну сайтов, достиг бесплатных листов на двух нейронках из-за его уточнения. Зато потом закинул его в Opus 4.6 и он мне за полчаса написал рабочий продукт объемом где-то на месяц моей работы.
Что там люди по 8 часов в день с нейронкой делают, мне непонятно. Для такой загруженности нужно иметь промпты объёмом с "Войну и мир" либо какой-то трешак в промышленных масштабах генерировать.
Я вот вообще не понимаю, как можно минимум 8 часов не остановки работать с нейронкой. Мне для написания нормального промпта для неё нужно погрузиться в тему, максимально подробно описать планируемые функции внедрения, прописать граничные случаи, попросить внедрить систему контроля ошибок и т. д. Что люди умудряются генерировать по 8 часов в день, интересно? Где-то реализовали божественный промпт "сделай хорошо, а плохо не делай", а я не в курсе? ))
А я про статью ни слова не сказал. Это комментарий был к потоку сознания выше. Я лучше почитаю выжимку через нейронку, чем буду пытаться продраться через такую тонну косноязычного текста.
Для этого надо статьи писать. Например, про ботов в Максе...
Я сейчас пробежался по статьям в ленте за последние несколько дней. Там мрак:
- оценка статьи 0, 20 комментариев
- куча просмотров, 0 оценок, 0 комментариев
- -25 оценка статьи, в комментариях идет живое обсуждение.
На лицо явный дисбаланс в системе оценок.