Обновить

Администрирование

Сначала показывать
Порог рейтинга

Как масштабировать ресурсы без увеличения бюджета? Рассказываем на примере истории SaaS-разработчика Ракета

Когда IT-инфраструктура перестает справляться с ростом продукта, это сразу отражается на скорости, стабильности и бизнес-показателях. Команда IT-компании Ракеты столкнулась с тем, что старые выделенные серверы перестали выдерживать нагрузку, а бюджет на масштабирование оставался прежним.

Решением стала миграция части внутренней инфраструктуры в Рег.облако. Здесь собрали гибридную архитектуру, которая сохранила контроль над железом и при этом дала гибкость для роста.

Под капотом:

  • выделенные серверы на AMD EPYC и Ryzen для телеметрии и автотестов;

  • отказоустойчивая конфигурация для стабильной работы без простоев;

  • возможность увеличивать мощности без изменения бюджета.

В результате — рост ресурсов примерно на 30% при тех же затратах и стабильная работа внутренних сервисов даже под нагрузкой. Подробнее о решении и технической реализации читайте на сайте Рег.облака.

Теги:
Всего голосов 2: ↑2 и ↓0+2
Комментарии0

Эгегей! Радость, kui снова подрос! Добавлена команда 'SSL update' для обновления сертификатов и ключей в секретах типа 'kubernetes.io/tls'. Как это работает?

  • Кладете в какую-нибудь папку новый сертификай, файл должен называться tls.crt и ключ с именем tls.key

  • Запускаете kui в этой папке, находите секрет с сертификатом который необходимо обновить

  • Обновляете через 'SSL update'

SSL update
SSL update

Под капотом, обновление выполняется вот такой командой:

printf -v ssl_patch_data '{"data": {"tls.crt": "%s", "tls.key": "%s"}}' "$(base64 -w0 tls.crt)" "$(base64 -w0 tls.key)"
kubectl patch secret/<secret_name> -n <namespace> --patch="$ssl_patch_data"

Творите, выдумывайте, пробуйте!)

Теги:
Всего голосов 5: ↑4 и ↓1+5
Комментарии1

Zero Trust: почему мы все делаем это неправильно

За последние три года я и мои знакомые из сферы участвовали во внедрении Zero Trust в 12 компаниях разного масштаба. Пришли к неутешительному выводу: 90% организаций реализуют Zero Trust как более сложную версию VPN. Мы подменяем философию технологиями, забывая о фундаментальных принципах.

Миф об «упрощенной безопасности»

Многие верят, что Zero Trust — это просто замена VPN на ZTNA. На практике мы получаем распределенный VPN с более сложной аутентификацией. Настоящий Zero Trust требует пересмотра архитектуры приложений, а не просто установки шлюза доступа.

Я видел implementations, где:

  • Микросервисы общаются через сервис‑меш внутри доверенной сети

  • Базы данных остаются в общем сегменте

  • Аутентификация сводится к проверке сертификатов

Это не Zero Trust. Это периметровая безопасность с дополнительными факторами аутентификации.

Проблема наследия

Legacy‑системы — главное препятствие для настоящего Zero Trust. Когда 70% бизнес‑логики работает на AS400 и Windows Server 2008, о сегментации на уровне приложений говорить не приходится. Мы создаем костыли: прокси, врапперы, шлюзы — все, что угодно, лишь бы не переписывать системы.

Данные против политик

Самый болезненный момент — управление данными. Zero Trust предполагает, что мы знаем:

  • Какие данные где хранятся

  • Кто имеет к ним доступ

  • Как они перемещаются

В реальности у 80% компаний нет даже базовой классификации данных. Мы строим сложные политики доступа, не понимая, что именно защищаем.

Излюбленный человеческий фактор 2.0))))

Zero Trust не решает проблему социальной инженерии. Фишинг эволюционировал вместе с технологиями. Я наблюдал случаи, когда злоумышленники:

  • Обходили MFA через усталость пользователя (push‑уведомления)

  • Использовали легитимные OAuth‑приложения

  • Крали сессии с доверенных устройств

Технологические разрывы

Рынок инструментов Zero Trust фрагментирован. Мы имеем:

  • 5+ стандартов для device attestation

  • 3 конкурирующих протокола для ZTNA

  • Десятки несовместимых решений для микросегментации

Интеграция превращается в кошмар: Palo Alto Prisma, CrowdStrike Identity, Cisco Duo — каждый тянет одеяло на себя.

Культурный шок

Самое сложное в Zero Trust — изменить мышление команды. Админы привыкли к «доверенным сетям». Разработчики не хотят переписывать auth‑логику. Руководство требует быстрых результатов.

Я видел проекты, где после года внедрения:

  • Сотрудники использовали корпоративные устройства для личных нужд

  • Админы создавали бэкдоры для «удобства поддержки»

  • Руководители требовали исключений из политик

Что в сухом остатке?

Zero Trust — это не продукт и не проект. Это бесконечный процесс переосмысления безопасности. Успешные implementations, которые я наблюдал, имели общие черты:

  • Поэтапный переход (3-5 лет)

  • Глубокая модернизация инфраструктуры

  • Изменение процессов, а не только технологий

  • Постоянное обучение и тестирование

Мы должны признать: не каждой компании нужен «полный» Zero Trust. Иногда достаточно микросегментации критических активов и строгого контроля доступа. Гонка за модным термином не должна подменять собой здравый смысл.

Сегодня я скорее рекомендую «Zero Trust mindset», чем конкретные технологии. Начинать стоит с инвентаризации активов, классификации данных и построения карты потоков. Технологии — вторичны.

Пора перестать измерять успех количеством подключенных ZTNA‑шлюзов и начать оценивать реальное снижение рисков. Иначе мы рискуем повторить судьбу «облачной трансформации» — потратить миллионы, не получив существенного улучшения безопасности.

Теги:
Всего голосов 4: ↑3 и ↓1+4
Комментарии0

Дайджест Рег.облака за сентябрь

Осень началась с крупных новостей — мы выпустили ИИ-ассистента, открыли новую московскую локацию и прокачали S3-хранилище. Всё это делает работу в Рег.облаке еще удобнее, безопаснее и мощнее.

  • Выпустили ИИ-ассистента
    Теперь в Рег.облаке доступен готовый образ сервера с ИИ-ассистентом — решением на базе LLM-моделей, которое работает полностью в изолированном окружении. ИИ-ассистент помогает бизнесу автоматизировать задачи: собирать аналитические сводки, готовить материалы, консультировать пользователей и искать информацию по корпоративным документам через чат.

  • Открыли новую локацию — Москва-2
    Добавили новый регион для заказа серверов в дата-центре «Медведково-2», сертифицированном по Tier III Facility. Здесь появилась линейка тарифов «Стандартные+» с дисковой подсистемой на NVMe SSD — она работает в 5–10 раз быстрее классических «Стандартных». Протестировать и заказать облачные серверы в новой локации можно на сайте Рег.облака.

  • Обновили S3-хранилище
    Теперь пользователям в разделе «Объекты» доступны массовое удаление и перемещение файлов, поиск объектов, улучшенный интерфейс для управления бакетами. Работать с данными стало так же просто, как с файлами на локальном компьютере. Протестировать обновления можно в личном кабинете.

  • Рассказали, как построить отказоустойчивую систему для ритейла в облаке
    На примере кейса мебельного ритейлера «169» показали, как полномасштабная миграция в облако помогла повысить производительность СУБД, а затраты на администрирование IT-инфраструктуры сократились на 30% за счет автоматизации и Pay-as-you-go-модели.

  • Провели вебинар и запланировали еще один
    В конце сентября прошел вебинар по ФЗ-152, а уже 14 октября мы встретимся на следующем — про 1С:УНФ и автоматизацию малого бизнеса.

Сентябрь получился насыщенным — и это только начало. Осенью в Рег.облаке будет еще больше обновлений, запусков и практических материалов. Следите за новостями — впереди активный сезон.

Теги:
Всего голосов 3: ↑3 и ↓0+3
Комментарии0

Управлять облачными расходами часто сложнее, чем кажется

FinOps Community Bot
FinOps Community Bot

Счета растут, бюджеты сложно прогнозировать, а прозрачности мало. Особенно это ощущают компании, где несколько команд используют разные облачные сервисы и никто не видит полной картины.

Чтобы помочь компаниям системнее подойти к FinOps, мы собрали FinOps Community Bot. Это Telegram-бот, который объединяет несколько инструментов:

  • Тест по FinOps. 9 вопросов за 5–7 минут. Бот рассчитает уровень зрелости вашей компании в управлении облачными затратами и подскажет следующие шаги.

  • База знаний. Подборка статей, инструкций и практических материалов по FinOps.

  • Календарь событий. Митапы, вебинары и конференции для специалистов и руководителей.

  • Закрытый чат. Возможность обсудить опыт с коллегами и задать вопросы сообществу.

Бот полезен для любых ролей: CEO увидит картину в целом, CFO получит идеи по оптимизации расходов, DevOps-инженеры и CTO — практические шаги для улучшения процессов.

Начать просто: пройдите тест, получите рекомендации и используйте остальные функции бота для глубокого погружения и обмена опытом.

👉 Попробовать

Теги:
Всего голосов 7: ↑6 и ↓1+5
Комментарии0

В репозитории Awesome First Pull Request Opportunities больше сотни проектов, в которые новички могут делать пул-реквесты и получать обратную связь и даже советы по изучению программирования. Все проекты разделены по языкам и темам: C#, C++, Java, JS, фронтенд, бэкенд, информбезопасность, мобильная разработка под iOS и Android. Каждый найдет проект и стек. Проекты и репозитории ведут реальные разработчики и постоянно их поддерживают. Каждая команда всегда читает пул-реквесты, часто дает советы по разработке и обучению, обратную связь новичкам и даже шанс попасть на стажировку.

Теги:
Рейтинг0
Комментарии0

Собственный VDI и протокол: подробности

Привет, Хабр! Мы расширяем портфель решений — теперь в нашей экосистеме есть новая функциональность виртуализации рабочих столов и приложений (VDI) в рамках интеграции продуктов zVirt и Termit. Благодаря ей заказчики могут прямо в пользовательском интерфейсе Termit настроить автоматическое создание групп виртуальных рабочих мест из шаблона. 

Это стало возможно благодаря глубокой интеграции с системой виртуализации zVirt. В интерфейсе Termit можно настроить сопряжение с zVirt, там же создать группу виртуальных рабочих мест, и в нее автоматически будут добавляться виртуальные машины, создаваемые в zVirt по заданному шаблону — “золотому образу”. Они также автоматически будут вводиться в домен. На стороне виртуализации нужно только настроить “золотой образ”, все остальные операции можно совершать в интерфейсе Termit.

VDI в наших продуктах обеспечивает возможность создания как сессионных, так и персонализированных виртуальных машин, а также поддерживает кроссплатформенность, многофакторную аутентификацию и SSO, протоколы X2Go, RDP и Loudplay, перенаправление устройств, различные ОС: Windows, Astra Linux, РЕД ОС, ОС Альт. Функциональность представлена как отдельно в рамках продукта Termit, так и в новом модуле платформы виртуализации zVirt Apps and Desktops.

Среди других обновлений релиза Termit 2.4 — улучшение пользовательского опыта и усиление безопасности. В частности, появилась возможность настройки перемещаемых профилей для Linux. Теперь, когда пользователь отключается от рабочего стола, все его актуальные настройки и изменения остаются в удаленном хранилище и при следующем подключении перемещаются за пользователем на новый сервер или виртуальную машину. Это позволяет сохранять единое рабочее окружение для сотрудников и снижает количество обращений в техподдержку.  

В части безопасности пользователям стали доступны аутентификация по смарт-картам и перенаправление смарт-карт, а  также централизованные политики перенаправления устройств и буфера обмена. Теперь системные администраторы  смогут из единой консоли управлять тем, что сотрудники передают с виртуального рабочего стола, — например, запретить буфер обмена, микрофон, локальные диски, принтеры, смарт-карты. Разрешения и запреты можно устанавливать как всем пользователям, так и отдельному LDAP-каталогу, группе или конкретным сотрудникам. Так компании могут полностью контролировать, какая информация покидает корпоративную сеть, и снизить риски утечки чувствительных данных.

Кроме того, мы начали разработку собственного протокола доставки удаленного рабочего стола и терминального доступа. Он будет реализован внутренними силами и без использования Open Source.

Мы изучили существующие на рынке разработки и патенты, наняли сильных специалистов и в этом году начали разработку собственного протокола. Мы пишем его сами, не используем ни X2Go, ни SPICE, ни FreeRDP. Это в первую очередь UDP, но одновременно будет реализована и поддержка TCP. В протоколе “из коробки” будет поддержка виртуальных каналов и мультисессионности.

Теги:
Всего голосов 1: ↑1 и ↓0+2
Комментарии0

Репозиторий с тысячами приложений, которые можно захостить на своем сервере. Больше 50 категорий приложений, внутри которых сотни инструментов под различные задачи. Есть всё для аналитики, бронирования ресторанов и отелей, автоматизации рутины, чтения книг и журналов. Можно использовать файлообменники, парсеры, приложения для мониторинга и многое другое. Каждая программа работает только локально.

Теги:
Всего голосов 8: ↑7 и ↓1+9
Комментарии0

Бессерверные вычисления: почему ваш код может стать заложником провайдера

Бессерверная архитектура обещает не думать об инфраструктуре, но скрывает риски vendor lock-in, которые проявятся слишком поздно. Пока вы наслаждаетесь отсутствием серверов, ваша бизнес-логика медленно превращается в заложника облачного провайдера.

Проблема:

  • Cold start в критичных приложениях достигает 10-15 секунд

  • Стоимость непредсказуема при скачках нагрузки

  • Локальная разработка и отладка превращаются в квест

Реальные кейсы:

python

# Проблема: разрыв между продакшеном и локальной средой
def lambda_handler(event, context):
    # На локальной машине работает
    # В AWS Lambda падает с таймаутом
    return expensive_operation()  # 25+ секунд

Что мониторим в бессерверной среде:

  1. Performance

    • Холодные/горячие старты

    • Потребление памяти

    • Execution duration

  2. Безопасность

    • Права IAM-ролей

    • Доступ к секретам

    • Цепочки вызовов функций

  3. Экономика

    • Стоимость вызова

    • Количество параллельных исполнений

    • Использование сторонних сервисов

Когда бессервер оправдан:

  • Обработка событий с неравномерной нагрузкой

  • Фоновые задачи (генерация отчетов, ночные джобы)

  • API с низким RPS

Альтернативы:

  • Kubernetes + Knative — гибридный подход

  • Cloudflare Workers — edge-вычисления

  • Self-hosted FaaS — полный контроль

Вывод:
Бессерверные технологии — мощный инструмент, но требуют тщательного проектирования и постоянного мониторинга затрат. Прежде чем погружаться в serverless, оцените, готовы ли вы к зависимости от вендора и непредсказуемым расходам.

Теги:
Всего голосов 2: ↑2 и ↓0+4
Комментарии0

ITAMday 2025: играем и выигрываем с «Инферит ИТМен»

Привет, Хабр! 👋
Меня зовут Данила Трусов, я директор продукта «Инферит ИТМен».

31 октября в Москве пройдет юбилейная X конференция ITAMday 2025 — ключевое событие для специалистов по управлению ИТ-активами. Ежегодно она собирает сотни практиков и экспертов, чтобы обсудить лучшие кейсы, обменяться опытом и взглянуть в будущее индустрии.

В этом году я выступлю с докладом «Агрегация — это еще не все: почему рынку требуется отдельный класс инструментов дискаверинга с гибкой настройкой под любую инфраструктуру в 2025–2028 годах».

Мы разберем:

  • почему российские вендоры и аналитики делают ставку именно на дискаверинг, а не на простую агрегацию;

  • зачем отдельный класс решений по дискаверингу необходим для ITSM/ ITAM/ SAM;

  • какие подходы позволяют добиться 100% прозрачности и безопасности инфраструктуры;

  • на что обратить внимание при выборе и настройке решений enterprise-уровня;

  • как сохранить мультивендорность при контроле ИТ-ландшафта.

А еще мы подготовили для участников активность от «Инферит ИТМен» — динамичный онлайн-квиз. Проверите знания, получите драйв и сможете выиграть крутые призы:

🎁 Главный приз — ноутбук бизнес-класса INFERIT Mercury 15.6" i5-1334U
🥈 Подарки за второе и третье место
📸 Отдельный приз победителю фотоконкурса

ITAMday — это не только про доклады и нетворкинг, но и про живые впечатления. Будет азартно, полезно и кто-то уйдет домой с ноутбуком под мышкой 😉

📅 Когда: 31 октября 2025
📍 Где: Radisson Blu Олимпийский, Москва

Жду вас на ITAMday 2025 — на своем докладе и в квизе от «Инферит ИТМен»!

Теги:
Всего голосов 6: ↑6 и ↓0+8
Комментарии2

Контейнеры не панацея: скрытые затраты на содержание Kubernetes, о которых молчат вендоры

Kubernetes стал де-факто стандартом оркестрации, но за кадром остаются реальные эксплуатационные расходы. Когда стоимость обслуживания кластера превышает стоимость самих сервисов — пора пересматривать архитектурные решения.

Что не учитывают при внедрении:

  • Эффективность нод: В среднем 35-40% ресурсов простаивают "на всякий случай"

  • Стоимость сетей: Service mesh + CNI добавляют 15-20% к потреблению CPU

  • Трудозатраты: 1 инженер на 3-5 кластеров — утопия для средних компаний

Реальные метрики из практики:

bash

# Анализ утилизации за 3 месяца
kubectl top nodes | awk '{sum += $3} END {print "Средняя загрузка:", sum/NR "%"}'
# Результат: 41% по CPU, 28% по памяти

Где теряем деньги:

  1. Overprovisioning
    "На всякий случай" развертываем на 200% больше ресурсов

  2. Сложность мониторинга
    Требуется отдельный стек: Prometheus + Grafana + Alertmanager

  3. Безопасность
    Pod Security Policies, network policies — +20% к времени развертывания

Когда Kubernetes оправдан:

  • 50+ микросервисов

  • Непредсказуемая нагрузка

  • Команда из 3+ DevOps инженеров

Альтернативы для средних проектов:

  • Nomad — проще оркестратор без привязки к контейнерам

  • Docker Swarm — для простых сценариев

  • Managed k8s — если нет своей экспертизы

Вывод:
Kubernetes — мощный инструмент, но не серебряная пуля. Прежде чем прыгать в эту экосистему, посчитайте TCO и убедитесь, что сложность управления не съест всю экономию от контейнеризации.

#Kubernetes #DevOps #контейнеризация #TCO #микросервисы

А как у вас с реальной утилизацией ресурсов в k8s? Делитесь наблюдениями в комментариях.

Теги:
Всего голосов 1: ↑0 и ↓1-1
Комментарии0

Записки параноика: почему Zero Trust — это не мода, а новая реальность для ИТ-инфраструктуры

Современные угрозы больше не останавливаются на периметре. Атаки стали целевыми, изощренными и часто исходят изнутри. Традиционный подход «замок и ров» безнадежно устарел.

Почему Zero Trust — это не просто buzzword:

  • 68% компаний сталкивались с инцидентами внутренних угроз

  • Среднее время обнаружения нарушителя в сети — 207 дней

  • Традиционные VPN стали главным вектором атак в 2024

Как мы внедряли Zero Trust без переписывания всей инфраструктуры:

Сегментация на микроуровне:

yaml

# Instead of: Allow 10.0.0.0/8
# We use: 
- name: db-access
  source: app-server-01
  destination: postgres-01
  port: 5432
  auth: mTLS + service-account

Service Mesh вместо VPN:

  • Istio для взаимной аутентификации сервисов

  • Автоматическое шифрование всего трафика

  • Детальный контроль доступа на уровне L7

    Непрерывная верификация:

bash

# Проверка целостности хостов каждые 30 сек
sudo attestation-agent verify --policy strict

Технические вызовы, с которыми столкнулись:

  • Производительность: Overhead Istio ~3ms на hop

  • Сложность отладки: Трассировка запросов через 5+ сервисов

  • Миграция: Постепенный перенос legacy-систем

Метрики после 6 месяцев работы:

  • Время сдерживания атаки сократилось с часов до минут

  • Количество инцидентов снизилось на 73%

  • Audit trail для compliance стал детализированным

Ключевые инсайты:

  1. Начинайте с идентификации — без точной инвентаризации сервисов ничего не выйдет

  2. Поэтапное внедрение — от критичных workload к периферии

  3. Автоматизация политик — ручное управление не масштабируется

Zero Trust — это не продукт, а архитектурный принцип. И да, он требует изменений в менталитете команды больше, чем в технологиях.

Теги:
Всего голосов 4: ↑4 и ↓0+6
Комментарии0

Post-Quantum Cryptography: тихая революция в инфраструктуре, которую нельзя игнорировать

Пока большинство обсуждает ИИ, в мире криптографии происходит настоящая революция. NIST утвердил первые стандарты постквантовой криптографии, и это потребует фундаментальных изменений в ИТ-инфраструктуре уже в ближайшие 2–3 года.

Проблема:

Современные алгоритмы (RSA, ECC) могут быть взломаны квантовыми компьютерами в обозримом будущем. Миграция на PQC — не вопрос «если», а вопрос «когда».

Что меняется:

  • Размер ключей увеличивается в 5-10 раз

  • Процессоры испытывают нагрузку на 30-50% выше

  • TLS-хендшейки становятся значительно объемнее

Наши тесты с OpenSSH 9.8:

bash

# Стандартный ключ Ed25519: 68 байт
# PQC-ключ Dilithium3: 1842 байта
# Рост трафика при подключении: ~2700%

Практические рекомендации:

  1. Аудит инфраструктуры:

python

# Скрипт для поиска уязвимых сервисов
import ssl
for protocol in ['TLSv1.2', 'TLSv1.3']:
    ctx = ssl.create_default_context()
    ctx.set_ciphers(protocol)
  1. План миграции:

  • 2025: Тестирование гибридных схем (PQC + традиционные алгоритмы)

  • 2026: Перевод внутренних сервисов

  • 2027: Полный переход для внешних endpoint

  1. Аппаратные требования:

  • CPU с поддержкой AVX2/AVX-512

  • Увеличение буферов сетевых карт

  • +30% к оперативной памяти для сертификатов

Метрики производительности после перехода:

  • 📉 Throughput VPN: снижение на 15%

  • 📈 Потребление CPU: рост на 40%

  • ⏱️ Время TLS-хендшейка: +80 мс

Вывод:

Откладывание перехода на PQC аналогично игнорированию проблемы Y2K в 90-х. Уже сегодня нужно начинать тестирование и планирование, чтобы избежать хаотичной миграции под давлением регуляторов.

Уже проводили тесты с постквантовыми алгоритмами? Делитесь результатами в комментариях — соберем статистику по разным конфигурациям.

Теги:
Всего голосов 4: ↑3 и ↓1+2
Комментарии5

Ближайшие события

Привет, потенциал kui еще немного увеличился! Случилось то что случилось, в продской cronjoпеb'е что-то застряло. Добавил в kui ручной запуск кронжоб и kui'ем протолкнул застрявшее в кронжобе ...

manual run cronjob
manual run cronjob

Творите, выдумывайте, пробуйте!)

Теги:
Всего голосов 2: ↑1 и ↓10
Комментарии0

Когда TLS 1.3 ломает мониторинг: тонкая настройка под новые протоколы

С переходом на TLS 1.3 многие системы мониторинга внезапно "ослепли". Старые методы перехвата трафика перестали работать, а бизнес требует полной видимости. Разбираем, как адаптировать мониторинг под современные стандарты безопасности.

Проблема:

  • eSNI и Encrypted Client Hello шифруют метаданные подключения

  • PFS (Perfect Forward Secrecy) делает историческую расшифровку трафика невозможной

  • 70% инструментов мониторинга показывают "encrypted traffic" вместо полезных метрик

Решение через eBPF:

bash

# Вместо SSL-инспекции - анализ системных вызовов
sudo bpftrace -e 'tracepoint:syscalls:sys_enter_connect {
    printf("%s → %s:%d\n", comm, args->uservaddr, args->port);
}'

Наша реализация:

  1. Мониторинг на уровне ядра - eBPF-программы для анализа сокетов

  2. Анализ временных метрик - latency между SYN и ACK без расшифровки содержимого

  3. Косвенные метрики - количество новых соединений, размер передаваемых данных

Конфигурация для Prometheus:

yaml

- job_name: 'ebpf_metrics'
  static_configs:
    - targets: ['node-exporter:9100']
  metrics_path: /ebpf
  params:
    module: [tcp_tracer]

Результаты:

  • Обнаружили 40% неоптимальных TLS-хендшейков

  • Снизили время диагностики проблем с подключением с 25 до 3 минут

  • Соответствуем требованиям GDPR и PCI DSS (без декриптации трафика)

Вывод:
Современный мониторинг требует смещения фокуса с инспекции содержимого на анализ метаданных и поведенческих паттернов. Безопасность и наблюдательность больше не противоречат друг другу.

#eBPF #TLS1.3 #мониторинг #кибербезопасность #observability

Какие подходы к мониторингу зашифрованного трафика используете вы? 

Теги:
Рейтинг0
Комментарии0

Grafana: когда красивые графики становятся рабочим инструментом

Все мы видели скриншоты дашбордов Grafana с красочными графиками. Но когда красивая визуализация становится реальным инструментом мониторинга, а не просто картинкой для отчёта?

Проблема типового подхода:

  • Собираем все метрики подряд — «на всякий случай»

  • Создаём дашборды с 20+ графиками, где невозможно найти нужную информацию

  • Система есть, а пользы нет

Как мы построили эффективный мониторинг:

1. Инфраструктура сбора данных

text

Prometheus → Grafana (визуализация)
Loki → Grafana (логи)
Alertmanager → Grafana (алерты)

Один стек — единая картина происходящего.

2. Три уровня дашбордов:

  • Оперативный (NOC): 3-5 ключевых метрик — доступность, ошибки, нагрузка

  • Тактический (инженеры): детализация по сервисам + связанные логи

  • Стратегический (руководство): SLA, бизнес-метрики, тренды

3. Пример полезного дашборда для веб-сервиса:

sql

- HTTP-коды ответов (1xx, 2xx, 3xx, 4xx, 5xx) 
- Latency: p50, p95, p99
- Rate of errors (> 5%)
- SLO: доступность за последний час

4. Интеграция логов и трейсов:
Теперь не просто видим, что latency вырос, а сразу находим причину в логах конкретного микросервиса.

Реальные результаты:

  • Время диагностики инцидентов сократилось с 40 до 8 минут

  • Количество ложных алертов уменьшили в 5 раз

  • Единая система вместо 3 разных инструментов мониторинга

Ошибки, которых стоит избегать:

  1. Не создавайте дашборды «для галочки»

  2. Настройте meaningful алерты, а не «disk usage > 90%»

  3. Используйте единый стек данных (метрики + логи + трейсы)

Вывод:
Grafana — это не про красивые графики, а про единое информационное пространство для принятия решений. Когда каждый инженер видит одну и ту же картину — проблемы решаются в разы быстрее.

А какие подходы к мониторингу используете вы? Делитесь кейсами в комментариях!

#grafana #мониторинг #prometheus #loki #devops #sre

Теги:
Всего голосов 4: ↑3 и ↓1+2
Комментарии1

Когда мониторинг слепнет: почему 90% алертов — это ложные срабатывания и как с этим жить

Системы мониторинга должны помогать, но вместо этого часто создают информационный шум. Когда на каждый чих приходит алерт, админы просто перестают на них реагировать. И тут случается реальная проблема.

Проблема ложных срабатываний

  • 📊 15% нагрузки на Zabbix/Prometheus — сбор и обработка бесполезных метрик

  • ⏰ До 3 часов в день senior-инженеры тратят на фильтрацию алертов

  • 🔕 68% инженеров признаются, что пропускали важные уведомления из-за "алертной усталости"

Почему это происходит

  1. Мониторим всё подряд — собираем метрики "на всякий случай"

  2. Неправильные пороги — одинаковые thresholds для dev и prod

  3. Отсутствие бизнес-логики — система не понимает контекст сбоя

Решение: умный мониторинг

# Вместо этого:
alert: CPU > 90%

# Мониторим так:
alert: 
  condition: CPU > 90% 
  and LoadAverage > 5
  and duration > 5m
  and business_impact = true

Что внедрили у себя

  1. Сезонные пороги — разные thresholds в рабочее/нерабочее время

  2. Корреляцию событий — не алертим о высокой нагрузке, если это время бэкапов

  3. Бизнес-метрики — мониторим не "доступность сервера", а "доступность оплаты"

Результаты через 3 месяца

  • ✅ Снизили количество алертов в 7 раз

  • ✅ 98% срабатываний требуют реакции

  • ✅ Время реакции на реальные инциденты сократилось с 25 до 8 минут

Вывод
Мониторинг должен говорить, когда бизнес теряет деньги, а не когда у сервера чихнул процессор. Лучше 10 точных алертов, чем 1000 мусорных.

А как у вас с алертами? Тоже тонете в ложных срабатываниях?

#мониторинг #zabbix #prometheus #алерты #devops #sysadmin

P.S. В комментах жду ваши кейсы борьбы с алертной усталостью — соберем лучшие практики!

Теги:
Всего голосов 3: ↑2 и ↓1+1
Комментарии0

Небольшой анонс: издательство БХВ теперь ведет собственный корпоративный блог на Хабре

Рады вам сообщить, что теперь вы сможете чаще читать рецензии на книги по ИТ от БХВ, Alist, Фолиант и наверняка что-то выберите себе для роста личных хард-скилов и компетенций.

Мы, в свою очередь — контент-команда SSP SOFT — уже около двух лет публикуем в нашем блоге рецензии на книги БХВ, но делаем это выборочно: только те издания, которые пересекаются с нашей основной деятельностью — заказным программированием, системным ПО, ИТ-аутсорсингом, внутренней архитектурой ПО и смежными темами.

Хотим поддержать почин у издательства БХВ и начать публиковать на Хабре посты-анонсы вышедших рецензий на книги в блоге БХВ, дополняя таким образом обзорную перспективу той литературы, которую на наш взгляд полезно или интересно прочесть практикующему разработчику или архитектору.

И вот первый такой анонс.

📘 «Чистовики патриарха. О трёх последних книгах Олега Цилюрика»

В своей статье БХВ публикует обзор трех недавних работ известного Линукс-гуру и автора технической литературы Олега Цилюрика.

  • Первая рекомендуемая книгиа — «Расширения ядра Linux. Драйверы и модули», книга объёмом ~688 страниц по версии ядра 5.15, детально раскрывающая внутренние API ядра, взаимодействие с периферией, USB, PCI и многое другое (ссылку на книгу).

  • Также БХВ рассказывает о книге «Linux и Go» — экспериментальном проекте объединения низкоуровневого программирования и Go, где автор исследует переход некоторых подсистем ядра и функций на Go, и подробно рассматривает вопросы производительности, взаимодействия C и Go, многопроцессорности.

  • Третья книга — а это перевод «Изучаем eBPF» — показывает, что авторские компетенции охватывали не только ядро, но и современные технологии мониторинга, безопасности и расширения функций ядра.

Статья в блоге БХВ лампово освещает рабочие моменты сотрудничества издательства и автора: как проходила верстка, как уточнялись детали кода, как велись обсуждения правок. Материал про творчество Олега Цилюрика важен для профессионального сообщества — чтобы вызвать готовность «заглянуть за обложку».

Теги:
Всего голосов 3: ↑3 и ↓0+6
Комментарии0

Представлен репозиторий Free Certifications с бесплатными сертификациями по IT-технологиям от Google, Oracle Microsoft и других компаний. Все сертификаты строго разделены по категориям: фронтенд, бэкенд, SQL, Data Science, информбезопасность, аналитика и ещё множество тем.

Теги:
Всего голосов 5: ↑4 и ↓1+5
Комментарии0

2 октября встречаемся на Infra Meetup от Wildberries & Russ!

Где: Москва + онлайн-трансляция
Когда: 2 октября 19:00, сбор гостей начинается в 18:00

Зарегистрироваться!

Приглашаем на Infra Meetup от Wildberries & Russ! Расскажем про внутреннее файловое хранилище собственной разработки, поговорим о методах автоматизации репозиториев в Nexus, разберём существующие сервисы и процедуры их сопровождения, обеспечивающие бесперебойную работу. И обязательно затронем важнейшую тему культуры инженерного взаимодействия в команде.

В программе:

Файловое хранилище Wildberries: бескомпромиссный HighLoad | Иван Волков, CTO CDN

  • Как устроено одно из важнейших файловых хранилищ Wildberries

  • 1,2+ млн RPS на выдачу фото и видео — и это не предел

  • Код Оккама: органический подход к разработке и процессам

Путь автоматизации репозиториев в Nexus | Владислав Раев, DevOps & DevTools Engineer

  • Автоматизация без стандартизации, или путь в никуда

  • Что работает для 10, может сломаться на 100

  • Меньше состояния — меньше проблем

  • Явное лучше неявного

У вас завелся сервис: рекомендации лучших сервисоводов (наверное) | Александр Стовбунский, Tools Team TechLead

  • «Пап, можно мы его оставим?» — почему приносят одни, а чиним мы

  • «А выгуливать кто будет?» — что может требовать тот, у кого нет права отказаться

  • «Он большим не вырастет!» — как считать трудозатраты и сроки

  • Вредные советы: как гарантировано всё испортить

Для участия в офлайне она обязательна. После докладов — продуктивный нетворкинг и афтерпати.

Зарегистрироваться!

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0