Как постоянно работающий с моделями Sonnet/Opus на нескольких языках, не замечал, чтобы они не знали особенности конткретного языка. Может развернете мысль "представления чисел в питоне по сравнению с джавой", в чем они могут ошибиться? Можно ведь эксперимент провести. Модели у меня под рукой.
Вы уверены во второй части сказанного? Давно проводили эксперимент такой? "представления чисел в питоне по сравнению с джавой" – более чем уверен, это вообще не проблема для хороших моделей, типа Opus.
Мы не про подход вайбкодинга говорим. Не у одной модели на такое не хватит контекста. В том и секрет, что нужно уметь работать с инструментами и применять Context Engineering. Не нужен большой контекст. Нужно детальное планирование и подход Explore → Plan → Code → Commit и так итерационно.
Все верно. Все начинается с ТЗ и планирования разработки. ТЗ пишите вручую более общее, далее уточняете с ИИ, далее уже просите ИИ создать детальный план работ (спланировать) и записать в файл. И вот уже по этому файлу просите писать тесты одновременно с выполнением этой большой таски. Так вы увеличиваете шансы рабочего кода и точность в разы.
Проблема почти полностью решается покрытием e2e тестами с широкими сценариями. Генерировать код через ИИ (без контроля) и не покрывать его тестами – выстрел в голову на первых же этапах.
У вас всего 4 модели по сути на выбор: Sonnet/Opus, GTP5, Grok, DeepSeek. Нет больше достойных "существующих моделей", чтобы прямо выбирать и ломать голову.
Кто вам мешает купить подписку, вместо платных токенов? Для меня выходит выгоднее от 10 раз. Сжигаю токенов на 2000$ в месяц примерно (+-300$) (это замеряется), а плачу за подписку 200$.
В этом исследовании верутся устаревшие модели и Cursor, который теперь далек по фунционалу от Claude Code. Это исследование бы сейчас провести, но уже на моделях Opus 4/Sonnet 4 + Claude Code по личному опыту результаты совершенно другие в сторону сокращения времени без потери качества кода.
Как тоже не переносящий VSCode перешел на Claude Code, это CLI с лучшими моделями на рынке для кода. Я как сеньор заменил в команде одного серьора и мидала, без падения качества кода и увеличения времени. При этом dry и т.п. соблюдаются на проекте. Модели Opus/Sonnet просто в шок меня повергли возможностями, понимаем и качеством результата. Еще пару месяцев назад я всем вокргу говорил, что нейросети не способны не на что, кроме простейших лендингов.
Справедливости ради, Альфа выдает очень годные статьи здесь по фронтенду JS/React, одни из первых (если не первые) кто выступал с докладами и писал статьи о микрофронтендах в реальном бою (на Module Federation).
Взял за основу код на Java, и сказал переписать код на Python в другой файл рядом:
Модель Sonnet 4. Как видите, модель поняла, что можно допустить ошибку переполнения.
Как постоянно работающий с моделями Sonnet/Opus на нескольких языках, не замечал, чтобы они не знали особенности конткретного языка.
Может развернете мысль "представления чисел в питоне по сравнению с джавой", в чем они могут ошибиться? Можно ведь эксперимент провести. Модели у меня под рукой.
Впервые слышу про баны, учитывая что знаю порядка 20-ти человек работающих в России с claude code (естевственно все под vpn)
Попробуйте на Claude Code cli перейти, модель идентична а разница огромна. Cursor имеет свою надстройку над моделью, которая многое портит.
Вы уверены во второй части сказанного? Давно проводили эксперимент такой? "представления чисел в питоне по сравнению с джавой" – более чем уверен, это вообще не проблема для хороших моделей, типа Opus.
Мы не про подход вайбкодинга говорим. Не у одной модели на такое не хватит контекста. В том и секрет, что нужно уметь работать с инструментами и применять Context Engineering. Не нужен большой контекст. Нужно детальное планирование и подход Explore → Plan → Code → Commit и так итерационно.
Все верно. Все начинается с ТЗ и планирования разработки. ТЗ пишите вручую более общее, далее уточняете с ИИ, далее уже просите ИИ создать детальный план работ (спланировать) и записать в файл. И вот уже по этому файлу просите писать тесты одновременно с выполнением этой большой таски. Так вы увеличиваете шансы рабочего кода и точность в разы.
Да, забыл про Qwen3, но отзывы среди разработчиков о нем так себе (судя по тредам на reddit).
Проблема почти полностью решается покрытием e2e тестами с широкими сценариями. Генерировать код через ИИ (без контроля) и не покрывать его тестами – выстрел в голову на первых же этапах.
У вас всего 4 модели по сути на выбор: Sonnet/Opus, GTP5, Grok, DeepSeek.
Нет больше достойных "существующих моделей", чтобы прямо выбирать и ломать голову.
Кто вам мешает купить подписку, вместо платных токенов? Для меня выходит выгоднее от 10 раз. Сжигаю токенов на 2000$ в месяц примерно (+-300$) (это замеряется), а плачу за подписку 200$.
Самолет, как я понял, частный, а значит там Старлинк есть или аналог. Рой он использовал в claude code, в облаках, раз в статье он упоминается.
По итогу на август компания стоит 170 миллиардов
В этом исследовании верутся устаревшие модели и Cursor, который теперь далек по фунционалу от Claude Code. Это исследование бы сейчас провести, но уже на моделях Opus 4/Sonnet 4 + Claude Code по личному опыту результаты совершенно другие в сторону сокращения времени без потери качества кода.
Как тоже не переносящий VSCode перешел на Claude Code, это CLI с лучшими моделями на рынке для кода. Я как сеньор заменил в команде одного серьора и мидала, без падения качества кода и увеличения времени. При этом dry и т.п. соблюдаются на проекте. Модели Opus/Sonnet просто в шок меня повергли возможностями, понимаем и качеством результата.
Еще пару месяцев назад я всем вокргу говорил, что нейросети не способны не на что, кроме простейших лендингов.
O'Reilly. Профессиональный TypeScript
Роберт Мартин: Идеальный программист. Как стать профессионалом разработки ПО
Справедливости ради, Альфа выдает очень годные статьи здесь по фронтенду JS/React, одни из первых (если не первые) кто выступал с докладами и писал статьи о микрофронтендах в реальном бою (на Module Federation).