Вот бы статью как эффективно использовать нейроннку запущенную локально. Вот у вас есть 4090 или 5090 сделай это и это и вот у тебя есть AI ассистент который в фоне поверяет каждый коммит или выполненные команду и в удобном интерфейсе собрал для тебя все ошибки и варианты для их решения, уже составил доку, юнит тесты, релиз нотесы и готов менять статус задач по твоей команде... эх мечты, мечты
Если вы все uri сделаете инднексами, то почти наверняка ваш локи взорвётся уже на 500rps. Либо вам придётся залить его тонной ресурсов. Динамические лейблы являются антипатеном для loki и прямо в доке разработчики об этом пишут. Можно сделать метрику на основе логов в promtail, не забыв после стейджа с созданием метрики удалить лишние лейблы, вот только такая метрика тоже будет весьма объёмной. Я последнюю неделю пытаюсь победить эту задачу чтобы поучить график rps by Hostname, URI, status code глубиной в две недели на 1000 rps и не купить Безосу яхту
Из новости непонятно нужно ли будет покупать дополнительно подписку у постовщика моделей или достаточно подписки на copilot. Да и какие модели для каких задач лучше подходят
Вы бы расписали хотя-бы подробно различия требований между версиями, какие решения и как могут реализовать эти требования, какое внедрили у себя и как это происходило, какие при внедрении возникли сложности как их решили...
Интересно узнать как вы наблюдаете за всем этим добром (за самой инфраструрой, за пайплайнами, за рабочими нагрузками)
Использовали уже существующию инфраструктуру мониторинга или построили новую. Собираете ли трассировки? Кто и как визуализирует метрики, как формируется алерты, в какой системе регистрируются (oncall, аналоги?), кем решаются?
Внедряли ли или планируете service mesh?
Решили ли задачи с сложными сценариями L7 маршрутизации и балансировкой GRPC?
У меня в Cursor есть поддержка MPC, но ограничен 40 активными методами (или как это называется в контексте MPC)
В целом достаточно легко обходится включением только нужных
А разве не холодный океан основной потребитель CO2 на плане?
Вот бы статью как эффективно использовать нейроннку запущенную локально. Вот у вас есть 4090 или 5090 сделай это и это и вот у тебя есть AI ассистент который в фоне поверяет каждый коммит или выполненные команду и в удобном интерфейсе собрал для тебя все ошибки и варианты для их решения, уже составил доку, юнит тесты, релиз нотесы и готов менять статус задач по твоей команде... эх мечты, мечты
Это будет работать только если клиент и сервер находятся в одном кластере
Почему не envoy + xDS?
Если вы все uri сделаете инднексами, то почти наверняка ваш локи взорвётся уже на 500rps. Либо вам придётся залить его тонной ресурсов. Динамические лейблы являются антипатеном для loki и прямо в доке разработчики об этом пишут. Можно сделать метрику на основе логов в promtail, не забыв после стейджа с созданием метрики удалить лишние лейблы, вот только такая метрика тоже будет весьма объёмной. Я последнюю неделю пытаюсь победить эту задачу чтобы поучить график rps by Hostname, URI, status code глубиной в две недели на 1000 rps и не купить Безосу яхту
Из новости непонятно нужно ли будет покупать дополнительно подписку у постовщика моделей или достаточно подписки на copilot. Да и какие модели для каких задач лучше подходят
Даже эта https://habr.com/ru/news/804947
Интересно это тот же ИИ)
Я правильно понял что отдельно от платформы этот модуль использовать невозможно?
Специальный оператор берёт заданные пользователями данные и составляет configmap для Vector
А можно поподробнее, вы написали свой оператор? Или используете разработанный сообществом, насколько я помню vector не делали своего
М-да, а в чем статья то?
Вы бы расписали хотя-бы подробно различия требований между версиями, какие решения и как могут реализовать эти требования, какое внедрили у себя и как это происходило, какие при внедрении возникли сложности как их решили...
На эту тему я давно и внимательно слежу за https://github.com/kubernetes/kubernetes/issues/92287
Аналогично, только я пополняю счёт на 10 рублей и тоже помогает. Как я понял важно это изменение баланса, а в какую сторону не так важно
Классный опыт,
Интересно узнать как вы наблюдаете за всем этим добром (за самой инфраструрой, за пайплайнами, за рабочими нагрузками)
Использовали уже существующию инфраструктуру мониторинга или построили новую. Собираете ли трассировки? Кто и как визуализирует метрики, как формируется алерты, в какой системе регистрируются (oncall, аналоги?), кем решаются?
Внедряли ли или планируете service mesh?
Решили ли задачи с сложными сценариями L7 маршрутизации и балансировкой GRPC?
Вы не верно прочитали мой комментарий
Я не согласен с этим утверждением и привёл пример как это может быть реализовано
Может, но для этого придётся настроить что-то вроде Calico over IP fabrics
Я хотел сказать что достигнув в хард скилах уровня Сеньйора, дальнейший рост может быть сторону тимилида и/или техлида
Все же в роль техлида более техническая, тимлида более менеджерская
А как же техлид?
Что бы не получить внезапно уголовку за неявку по повестке, которые в обозримом будущем будут автоматически считаться полученными
Вот эта часть вызывает вопросы, в документации не нашел примеров
Так же наткнулся на коммент в issue
Правда в несколько другом контексте дедупликации
Вопрос
Это действительно так?
Есть ли пример конфига с которым эта проблема решается через compactor?
В чем преимущество approle перед kubernetes auth?
Kubernetes auth как я понял позволяет использовать short-lived token, что выглядит безопаснее