вероятно, более высокие квоты на сообщения и Thinking
Вы бы сами попробовали прежде чем гадать да советы давать, а то они могут влететь в копеечку и все зря.
И какой смысл говорить про чат гпт и не вспомнить про кодекс который в связке с openclaw при включённом дефолтном medium reasoning недельные лимиты на запросы съедает на раз.
Ну да за 3 года тепличных условий импортозамещения не смогли создать, а на международном рынке как выйдут так сразу и создадут, только узнают сначала, что там делается)
Безопасность всё меньше строится вокруг вопроса «с какого IP-адреса пришёл запрос» и всё больше — вокруг вопроса «какая сущность обращается к какому ресурсу, с каким уровнем доверия и в каком контексте».
Серьёзно, до сих пор всё меньше строится? Как будто бы об этом говорили ещё на заре нгфв, когда только начинали его продавать.
Для NGFW это означает, что он остаётся важным механизмом контроля, но уже не является единственной точкой входа.
Не совсем понятно как он может контролировать тот трафик который через него не идёт.
Ну вот и всё) Для некоторых задач, например агентского кодинга, почти 90% улетает префикс кэш. С учётом того, какие агенты прожорливые на токены - выбора не остаётся.
Так что изменилось принципиально? Раньше люди находили уязвимости по исходникам open source, а теперь иишка.
И причём тут ngfw?
создают архитектурный барьер, который ограничивает радиус поражения при компрометации.
Это как? Допустим вредоносный трафик отфильтрован, зачем тогда архитектурный барьер или допустим трафик не отфильтрован, а как тогда помогает архитектурный барьер?
Но каждая строка — моя, понятная, тестируемая, дебажимая.
Это вам понятно, а когда вы решите сменить работодателя? Другим будет понятно?)
Security: меньше зависимостей — меньше attack surface
Есть же и обратная сторона, вы ничего не сказали, как вы сканируете на секьюрность ваш маленький фреймворк.
Сложилось впечатление, что при переходе на другого ллм провайдера вы просто подкручиваете промты, а с langchain почему так нельзя? А если даже не только промпты? Почему нельзя настроить два рабочих langchain пайплайна для основного ллм провайдера и для fallback?
Просто в ии коде меньше багов и редко используемый навык деградирует. Если подумать, разве это плохо? Чтобы поддерживать себя в форме, регулярно занимайтесь поиском багов в legacy на работе.
Решение: скрипт update-ha-context.sh получает данные из Home Assistant через mcporter, парсит термостаты и температуру, записывает в TOOLS.md. Модель получает актуальные данные в промпте — tool calling не нужен
Отличный пример оркестра из одного исполнителя.
Вайбкодинг без голосового набора - токены на ветер
Вы бы сами попробовали прежде чем гадать да советы давать, а то они могут влететь в копеечку и все зря.
И какой смысл говорить про чат гпт и не вспомнить про кодекс который в связке с openclaw при включённом дефолтном medium reasoning недельные лимиты на запросы съедает на раз.
А как вы понимаете что ваша структура работает, что в нужный момент в контекст попадают нужные правила, а не нужные не попадают?
Ну да за 3 года тепличных условий импортозамещения не смогли создать, а на международном рынке как выйдут так сразу и создадут, только узнают сначала, что там делается)
Серьёзно, до сих пор всё меньше строится? Как будто бы об этом говорили ещё на заре нгфв, когда только начинали его продавать.
Не совсем понятно как он может контролировать тот трафик который через него не идёт.
Наверное было бы полезно начать статью с небольшого вступления для чего всё это вообще. А вы сразу нам ломают пайплайн А какой пайплайн непонятно.
Ну вот и всё) Для некоторых задач, например агентского кодинга, почти 90% улетает префикс кэш. С учётом того, какие агенты прожорливые на токены - выбора не остаётся.
Так что изменилось принципиально? Раньше люди находили уязвимости по исходникам open source, а теперь иишка.
И причём тут ngfw?
Это как? Допустим вредоносный трафик отфильтрован, зачем тогда архитектурный барьер или допустим трафик не отфильтрован, а как тогда помогает архитектурный барьер?
Какая у гигачата стоимость кэшированных токенов? У импортных провайдеров - это обычно 1/10x. Без этого сравнение не очень показательно.
Если так то звучит как вынужденное решение, а в статье-то формулировка позитивная: вот мы выбрали потому что нам нравится.
А почему не ceph например?
А я-то думаю какой комментарий понятный легко читается а его оказывается ии писал!
А вы тоже комментарии читайте иишкой может легче станет.
Ну как будто бы тесты действительно должны быть разные и независимые для разных моделей вне зависимости от того какой framework.
Чем картинку генерировали? Текст на инфографике совсем плох. Кажется gpt images 2 генерит лучше.
Это вам понятно, а когда вы решите сменить работодателя? Другим будет понятно?)
Есть же и обратная сторона, вы ничего не сказали, как вы сканируете на секьюрность ваш маленький фреймворк.
Сложилось впечатление, что при переходе на другого ллм провайдера вы просто подкручиваете промты, а с langchain почему так нельзя? А если даже не только промпты? Почему нельзя настроить два рабочих langchain пайплайна для основного ллм провайдера и для fallback?
Просто в ии коде меньше багов и редко используемый навык деградирует. Если подумать, разве это плохо? Чтобы поддерживать себя в форме, регулярно занимайтесь поиском багов в legacy на работе.
Как это не нужен, а как умным домом управлять?
thanks_a_lot_penguin.png
Можно еще запросы за кредиты покупать когда лимит пробивается
что умеют? выкатывать монолиты и переключать трафик между ними? ну дааа) а легче стало от этого?