Search
Write a publication
Pull to refresh
0
0
Даниил @DANic

DevOps

Send message

Нет поддержки MCP, что ограничивает расширение функционала.

У меня в Cursor есть поддержка MPC, но ограничен 40 активными методами (или как это называется в контексте MPC)

В целом достаточно легко обходится включением только нужных

А разве не холодный океан основной потребитель CO2 на плане?

Вот бы статью как эффективно использовать нейроннку запущенную локально. Вот у вас есть 4090 или 5090 сделай это и это и вот у тебя есть AI ассистент который в фоне поверяет каждый коммит или выполненные команду и в удобном интерфейсе собрал для тебя все ошибки и варианты для их решения, уже составил доку, юнит тесты, релиз нотесы и готов менять статус задач по твоей команде... эх мечты, мечты

Это будет работать только если клиент и сервер находятся в одном кластере

Почему не envoy + xDS?

Если вы все uri сделаете инднексами, то почти наверняка ваш локи взорвётся уже на 500rps. Либо вам придётся залить его тонной ресурсов. Динамические лейблы являются антипатеном для loki и прямо в доке разработчики об этом пишут. Можно сделать метрику на основе логов в promtail, не забыв после стейджа с созданием метрики удалить лишние лейблы, вот только такая метрика тоже будет весьма объёмной. Я последнюю неделю пытаюсь победить эту задачу чтобы поучить график rps by Hostname, URI, status code глубиной в две недели на 1000 rps и не купить Безосу яхту

Из новости непонятно нужно ли будет покупать дополнительно подписку у постовщика моделей или достаточно подписки на copilot. Да и какие модели для каких задач лучше подходят

Даже эта https://habr.com/ru/news/804947

Интересно это тот же ИИ)

Я правильно понял что отдельно от платформы этот модуль использовать невозможно?

Специальный оператор берёт заданные пользователями данные и составляет configmap для Vector

А можно поподробнее, вы написали свой оператор? Или используете разработанный сообществом, насколько я помню vector не делали своего

М-да, а в чем статья то?

Вы бы расписали хотя-бы подробно различия требований между версиями, какие решения и как могут реализовать эти требования, какое внедрили у себя и как это происходило, какие при внедрении возникли сложности как их решили...

Квот по IOPS нет. Если какой-то безумный контейнер неистово пишет на диск, то у всех остальных контейнеров, использующих тот же диск будут проблемы.

На эту тему я давно и внимательно слежу за https://github.com/kubernetes/kubernetes/issues/92287

Аналогично, только я пополняю счёт на 10 рублей и тоже помогает. Как я понял важно это изменение баланса, а в какую сторону не так важно

Классный опыт,

Интересно узнать как вы наблюдаете за всем этим добром (за самой инфраструрой, за пайплайнами, за рабочими нагрузками)

Использовали уже существующию инфраструктуру мониторинга или построили новую. Собираете ли трассировки? Кто и как визуализирует метрики, как формируется алерты, в какой системе регистрируются (oncall, аналоги?), кем решаются?

Внедряли ли или планируете service mesh?

Решили ли задачи с сложными сценариями L7 маршрутизации и балансировкой GRPC?

Вы не верно прочитали мой комментарий

IP-адрес не может быть доступен извне кластера.

Я не согласен с этим утверждением и привёл пример как это может быть реализовано

ClusterIP получает внутренний IP-адрес, который доступен только внутри кластера. Этот IP-адрес не может быть доступен извне кластера.

Может, но для этого придётся настроить что-то вроде Calico over IP fabrics

Я хотел сказать что достигнув в хард скилах уровня Сеньйора, дальнейший рост может быть сторону тимилида и/или техлида

Все же в роль техлида более техническая, тимлида более менеджерская

А как же техлид?

Что бы не получить внезапно уголовку за неявку по повестке, которые в обозримом будущем будут автоматически считаться полученными

Да, это больше, чем нужно. Проблему можно решить через дедупликацию данных. Для этого есть компонент-компактор. Работает так:

Вот эта часть вызывает вопросы, в документации не нашел примеров

Так же наткнулся на коммент в issue

The compactor (as of the time of this message) does not touch chunks at all and does no de-duplication.

Правда в несколько другом контексте дедупликации

Вопрос

Дистрибьютор отправляет чанки сразу в несколько инджесторов. Теперь в storage будет храниться в три раза больше данных

Это действительно так?

Есть ли пример конфига с которым эта проблема решается через compactor?

В чем преимущество approle перед kubernetes auth?

Kubernetes auth как я понял позволяет использовать short-lived token, что выглядит безопаснее

Information

Rating
9,149-th
Location
Varna, Varna, Болгария
Date of birth
Registered
Activity

Specialization

DevOps
Lead
From 10,000 $