Вслед за дефективными менеджерами нас преследуют дефективные клиенты, которые уже ожидают х10 shipping speed и дефективные конкуренты, которые соглашаются на такие условия, и как следствие, дефективное отсутствие работы
Обратите внимание: количество добавлений Вашей статьи в закладки не влияет на карму и рейтинг, но красноречиво подчеркивает расхождение между оценкой статьи и пользой её для читателей.
Вы неправильно поняли метафору. Сравнение идёт не между потенциально опасным инструментом без ии, и инструментом с ии. Сравнение идёт между одним и тем же инструментом, в одном случае оператор умеет им пользоваться и получает нужный ему результат, во втором случае не умеет и наносит себе травмы.
Anthropic - партнёр гугла, а не конкурент. Их модели интегрированы в Vertex AI, в официальных инструкциях к Claude Code есть порядок действий по замене ANTHROPIC_BASE_URL на GCP
Спасибо за хорошую статью. При начале работы со SpecKit есть ещё одна нулевая фаза - specify.constitution - Вы её пропускаете? Для меня это самый сложный этап, поэтому со speckit у меня не получилось подружиться, в отличие от task-master.
Один из существенных минусов Codex (CLI, не расширение) - большие трудности при работе на Windows / powershell. Конечно WSL несколько устраняет проблему, но у тех кто не знает - может вызвать разочарование.
А что касается подхода - отличная вариация Spec Driven Development, моё почтение. Вероятно, Вам понравится Task Master AI MCP, где этот подход ещё и ускоряется
SpecKit - это не замена курсору, а дополнение к нему. SpecKit имеет шаблоны / профиль для Курсора. Он создает кастомных агентов в чат каждый под свою задачу. Создаёт спеки, план, задачи, контроль выполнения.
У курсора есть аналог - расширение SuperCode, но оно стоит отдельных денег и не работает с другими инструментами.
Почему "скорее всего"? Можно получить однозначное "да" или "нет" - проверить любым ии-детектором, он покажет, насколько % в статье текст написан человеком.
Для того, чтобы запустить любую модель в децентрализованной вычислительной сети, некоторые провайдеры просят всего $50, а чтобы использовать популярные большие модели, вроде Deepseek, Kimi, gpt-oss-120b, за сумму порядка $10 дают лимит порядка 50 000 апи-вызовов в месяц, в нагрузку дают openai-compatible endpoint. Совсем не нужно собирать свой дорогостоящий кластер для большинства случаев практического применения.
Сейчас для инференса гигантских моделей можно использовать любую публично доступную децентрализованную bittensor-сеть за совсем небольшие деньги, например одна из них (не буду рекламировать) предлагает инференс к таким моделям по подписке за $0.00002 за один апи-вызов, без тарификации за токены. Я сомневаюсь, что AWS может предложить инференс за сопоставимые деньги.
Практического применения у этой статьи очень мало для большинства читателей. Никто не написал ещё на хабре о том, как доступно запустить модель на сотню миллиардов параметров (или даже триллион) в одной из сетей на базе BitTensor и заставить её работать как CLI агент, хотя вероятно кто-то организовал по этому вопросу платные курсы:)
Gemini API File Search - новый виток эволюции, который упраздняет всю сложность RAG
Аудиторию, которая плюсует подобные статьи, вероятно стоит искать вне здесь:) на профильных сайтах есть профильные треды)
Вслед за дефективными менеджерами нас преследуют дефективные клиенты, которые уже ожидают х10 shipping speed и дефективные конкуренты, которые соглашаются на такие условия, и как следствие, дефективное отсутствие работы
Как и с любым инструментом, любые проблемы возникают из-за skills issue
Обратите внимание: количество добавлений Вашей статьи в закладки не влияет на карму и рейтинг, но красноречиво подчеркивает расхождение между оценкой статьи и пользой её для читателей.
Вы неправильно поняли метафору. Сравнение идёт не между потенциально опасным инструментом без ии, и инструментом с ии. Сравнение идёт между одним и тем же инструментом, в одном случае оператор умеет им пользоваться и получает нужный ему результат, во втором случае не умеет и наносит себе травмы.
Anthropic - партнёр гугла, а не конкурент. Их модели интегрированы в Vertex AI, в официальных инструкциях к Claude Code есть порядок действий по замене ANTHROPIC_BASE_URL на GCP
Отличная отправная точка в мир файн-тюнинга. Интересно перенаправить пайплайн на другую сеть bittensor в качестве провайдера вычислительных ресурсов
Спасибо за хорошую статью. При начале работы со SpecKit есть ещё одна нулевая фаза - specify.constitution - Вы её пропускаете? Для меня это самый сложный этап, поэтому со speckit у меня не получилось подружиться, в отличие от task-master.
Принцип работы LLM: Garbage in - Garbage out
Один из существенных минусов Codex (CLI, не расширение) - большие трудности при работе на Windows / powershell. Конечно WSL несколько устраняет проблему, но у тех кто не знает - может вызвать разочарование.
А что касается подхода - отличная вариация Spec Driven Development, моё почтение. Вероятно, Вам понравится Task Master AI MCP, где этот подход ещё и ускоряется
Помните про принцип "garbage in - garbage out ". Если не получается с одного промпта - добавьте модели правило задавать уточняющие вопросы.
SpecKit - это не замена курсору, а дополнение к нему. SpecKit имеет шаблоны / профиль для Курсора. Он создает кастомных агентов в чат каждый под свою задачу. Создаёт спеки, план, задачи, контроль выполнения.
У курсора есть аналог - расширение SuperCode, но оно стоит отдельных денег и не работает с другими инструментами.
Почему "скорее всего"? Можно получить однозначное "да" или "нет" - проверить любым ии-детектором, он покажет, насколько % в статье текст написан человеком.
Для того, чтобы запустить любую модель в децентрализованной вычислительной сети, некоторые провайдеры просят всего $50, а чтобы использовать популярные большие модели, вроде Deepseek, Kimi, gpt-oss-120b, за сумму порядка $10 дают лимит порядка 50 000 апи-вызовов в месяц, в нагрузку дают openai-compatible endpoint. Совсем не нужно собирать свой дорогостоящий кластер для большинства случаев практического применения.
Сейчас для инференса гигантских моделей можно использовать любую публично доступную децентрализованную bittensor-сеть за совсем небольшие деньги, например одна из них (не буду рекламировать) предлагает инференс к таким моделям по подписке за $0.00002 за один апи-вызов, без тарификации за токены. Я сомневаюсь, что AWS может предложить инференс за сопоставимые деньги.
LLM не учатся мгновенно. Насколько актуальны знания той или иной нейросети, можно узнать вопросом про knowledge cutoff
Сколько актуальных статей про spec-driven development? Ноль статей. Продолжайте превращать когда-то лучший по инновациям сайт в заповедник.
А что насчёт gRPC?
Практического применения у этой статьи очень мало для большинства читателей. Никто не написал ещё на хабре о том, как доступно запустить модель на сотню миллиардов параметров (или даже триллион) в одной из сетей на базе BitTensor и заставить её работать как CLI агент, хотя вероятно кто-то организовал по этому вопросу платные курсы:)