Selectel начисляет до 30 000 бонусов на облачные сервисы
Привет, Хабр! Если вы ИП или юрлицо и ранее не использовали облачные базы данных или Managed Kubernetes в Selectel — можете получите до 30 000 бонусных рублей на тест этих продуктов.
Чтобы получить грант, нужно создать тикет от юридического лица или ИП с описанием нужной конфигурации — и мы начислим до 30 000 бонусов на облачные базы данных и Managed Kubernetes в Selectel.
Вебинар: от Pod Security Standards к полноценной модели безопасности подов в Deckhouse Kubernetes Platform
Pod Security Standards ограничивают privileged-контейнеры, hostPath и capabilities. Однако реальные риски безопасности шире. Неконтролируемые registry, отсутствие лимитов на ресурсы, образы без фиксированных тегов, контейнеры без health-проверок — всё это расширяет поверхность атаки.
28 апреля в 12:00 на вебинаре Deckhouse Академии разберём, как выстроить полноценную модель безопасности пода средствами Deckhouse Kubernetes Platform:
как SecurityPolicy и OperationPolicy в DKP закрывают то, что PSS оставляют открытым;
как Gatekeeper превращает декларативные политики в версионируемый код, который можно проверить в CI/CD;
почему платформенный механизм проще и надёжнее подхода «договариваться о безопасности с каждой командой».
Проект просуществовал более восьми лет, набрал 20 тысяч звёзд на GitHub и стал стандартом для HTTP-маршрутизации в Kubernetes. Теперь поддержка и разработка полностью прекращена: новых релизов, багфиксов и патчей безопасности не будет.
Причина архива: ресурс Ingress изначально был слишком ограничен. Весь расширенный функционал реализовали через vendor-специфичные аннотации, нормального RBAC не было, протоколы: только HTTP/HTTPS. Gateway API решает все эти проблемы на уровне спецификации.
Мейнтейнеры рекомендуют переходить на реализации Gateway API:
"If you are not already using ingress-nginx, you should not be deploying it as it is not being developed. Instead you should identify a Gateway API implementation and use it."
Разворачиваем приватную LLM в кластере Kubernetes в прямом эфире
Начинаем через 30 минут, в 12:00 мск. Эксперты вместе с вами пройдут весь путь от подготовки кластера до готового интерфейса: настроят мониторинг, распределенные модели, интеграции и даже автоматизацию инфраструктуры.
Kubernetes, Swarm, Nomad — как выбрать оркестратор и не пожалеть
Когда контейнеров становится больше десятка, ручное управление превращается в отдельную работу: уследить, что запущено, что упало, где не хватает ресурсов — уже не получается.
Оркестратор берет это на себя. Но выбор между Kubernetes, Docker Swarm, Nomad, Mesos и OpenShift — не очевидный. У каждого своя ниша, и «взять Kubernetes, потому что все берут» — одна из самых частых ошибок при внедрении.
Разобрали, как работают оркестраторы изнутри, чем они отличаются на практике и по каким критериям выбирать под конкретный проект. Плюс чек-лист запуска и типичные грабли — от избыточной сложности на старте до игнорирования безопасности.
Основы работы с Helm: как упростить деплой в Kubernetes
Helm — это менеджер пакетов для Kubernetes. По сути, он делает для кластеров то же, что apt для Linux или npm для JavaScript: позволяет устанавливать приложения как готовые пакеты, а не собирать всё вручную из десятков YAML-файлов.
В основе Helm — чарт: набор шаблонов с описанием ресурсов Kubernetes. При установке создается релиз с собственной историей версий — можно обновлять приложения, отслеживать изменения и при необходимости быстро откатываться. А еще Helm объединяет десятки ресурсов в один пакет и позволяет переиспользовать конфигурации для разных окружений через values.yaml.
В блоге разобрали установку Helm, основные команды, работу с репозиториями и релизами, проверку чартов перед деплоем, управление зависимостями и откаты. Читайте на сайте Рег.облака.
Что такое Portainer и зачем он нужен для управления Docker
Ранее мы уже разбирали базовые команды Docker и повседневную работу с контейнерами. Следующий логичный шаг — упростить управление окружениями и сделать его наглядным.
Сегодня поговорим о Portainer — графическом интерфейсе для управления Docker, Kubernetes и Podman. В новой статье показали, какие задачи он решает, в каких сценариях действительно полезен и чем отличается от работы через командную строку. Отдельно разобрали ключевые возможности: управление контейнерами и образами, просмотр логов и статистики, работу с сетями и томами, запуск приложений через docker-compose и готовые шаблоны.
Пошаговая инструкция по установке Portainer через Docker-контейнер и подсказки, с каких разделов удобнее начать работу — в базе знаний Рег.облака.
Если тебе надо быстро потыкать что-то из Linux / контейнеров / сетей / namespaces / cgroups, но при этом не хочется поднимать VM, ставить Docker, ковырять окружение, то iximiuz labs playgrounds - это прям топ штука.
Это набор готовых интерактивных лаб, где ты заходишь в браузере и просто:
запускаешь контейнеры
смотришь namespace’ы
играешься с сетью
Причём самое классное, что там не “прочитай статью”, а прям сценарий + терминал + что делать. То есть зашёл → запустил → увидел результат → понял, как оно работает.
---
Хватит читать DevOps-статьи от людей без продакшена. Я рассказываю про свой реальный опыт в своем Telegram-канале DevOps Brain 🧠 ↩
Kubernetes Zero to Hero — базовый видеокурс от «Фланта»
Если вы хотите изучить основы работы с Kubernetes, мы сняли подходящий для этого видеокурс. Из него вы получите практические знания, которых будет достаточно для решения большинства типовых задач.
В курсе 10 коротких — до 10 минут — видео. Они рассчитаны на начинающих разработчиков с опытом в продуктовой разработке, учебных или личных проектах, где возникает потребность в Kubernetes. С нами вы:
поднимете локальный кластер и разберётесь в ключевых сущностях Kubernetes;
научитесь развёртывать приложения, пройдя путь от коммита кода в Git-репозиторий до его выката в кластер;
поймёте, как устроены сетевое взаимодействие внутри кластера и доступ к приложениям извне;
познакомитесь с werf и Helm, шаблонизацией чартов и практиками реальных проектов.
Два первых ролика уже доступны. Во вводном будут план курса и желательный для старта бэкграунд, а второй поможет поднять локальный кластер Kubernetes с помощью Minikube и получить готовое окружение для экспериментов. Смотрите на удобной вам площадке:
PostgreSQL на 4 ТБ, Patroni на две столицы и 16 000 фур в реалтайме: как мы «перевозили» CARGO.RUN
Привет, Хабр! Представьте ситуацию: один логист управляет 80 машинами одновременно. Маршруты, топливо, простои — все в реальном времени. Остановись сервер — бизнес сразу теряет деньги, а на перевозчиков сваливается хаос.
Именно таков мир, в котором работает команда CARGO.RUN — SaaS-платформа, которая автоматизирует грузоперевозки для топ-игроков рынка. Мы подготовили кейс о том, как помогли CARGO.RUN мигрировать к нам в Selectel. Внутри — настоящий технический детектив и архитектурный дзен.
Базы данных — почему для PostgreSQL с расширениями PostGIS и Timescale (а это 4 ТБ «горячих» данных!) выбрали именно выделенные серверы, а не облако.
Отказоустойчивость — как развернули кластер Patroni, физически разнесенный между дата-центрами в Москве и Санкт-Петербурге, чтобы пережить падение целого региона.
Оркестрация — переход от Docker Swarm к Managed Kubernetes для микросервисов, когда в штате всего три DevOps-инженера.
IaC — как Terraform и GitOps помогли навести порядок и сделать инфраструктуру прозрачной.
Результат миграции — рост производительности логистов в 2,5 раза и сокращение порожнего пробега фур на 53%.
Вебинар будет полезен DevOps- и DevSecOps-инженерам, архитекторам, руководителям инфраструктурных команд, — всем, кто отвечает за устойчивость и безопасность сервисов.
Спикеры — эксперты в вопросах обеспечения безопасности в контейнерезированных средах.
🔹 Алексей Волков, лидер направления Developer Productivity в VK Cloud, VK Tech
🔹 Дмитрий Евдокимов, основатель и технический директор Luntry, Kubernetes-native платформы для контроля и безопасности контейнерной инфраструктуры
Регистрируйтесь, чтобы получить напоминание и ссылку на трансляцию вебинара.
Минималистичные healthcheck-утилиты для Docker-контейнеров
Однажды я был маленький, и задавался вопросом - вот собираешь ты свое приложение, нежно помещаешь его в Docker-образ, заботишься о том чтоб и зависимостей было поменьше, и скомпилируешь его так чтоб итоговая каша из байт было погуще, но покомпактее; используешь scratch, статическую линковку, но чтоб "из коробки" был еще и healthcheck - приходится или писать свой мальний чекер каждый раз, или тянуть статичкски слинкованный curl/wget, если приложение работает как http сервер.
Потому что без healthcheck жизнь ну совсем не торт, даже при локальной разработке, когда запускаешь уже готовые образы, ставишь их в зависимость для других (в том же docker compose) - без него это все работать не будет так, как тебе хочется - демоны будут стучаться друг к другу без уважения и учета, готово оно в этому или нет.
Так родился microcheck - набор крошечных статически скомпилированных бинарников, созданных специально для healthcheck-ов. Они не имеют зависимостей от динамических библиотек, написаны на C, и работают даже в scratch и distroless образах, да умеют корректно возвращать exit-коды, понятные Docker’у (0 - здоров, 1 - приходи завтра).
В комплекте:
httpcheck — проверка HTTP-эндпоинтов (~75 KB)
httpscheck — то же самое, но с TLS и автоопределением протокола (~500 KB)
portcheck — проверка TCP/UDP-портов (~70 KB)
У вас в продакшене наверняка Kubernetes, и все проверки делает kubelet - скорее всего, вам не нужно ничего менять. Но если вы запускаете контейнеры в «голом» Docker’е или других рантаймах без встроенных healthcheck-ов - такие инструменты могут здорово упростить жизнь.
Разница по размеру в десяток мегабайт против семи десятков килобайт, а в качестве бонуса - не нужен shell-процесс, всё работает напрямую и быстро (а еще и в переменные окружения умет).
Поддерживаются все популярные архитектуры (x86_64, ARM, ppc64le, s390x и др.), есть готовые образы в GitHub Container Registry и Docker Hub.
Как масштабироваться в Kubernetes автоматически и экономически выгодно? Расскажем через 15 минут
Подключайтесь к вебинару сегодня в 16:00 мск. Покажем, как Karpenter в кластерах Managed Kubernetes помогает оптимизировать затраты на инфраструктуру, и объясним, как использовать этот инструмент. Присоединяйтесь!
В программе:
✔️ Обзор возможностей Karpenter и его сравнение с Cluster Autoscaler;
✔️ Воркшоп по настройке решения в кластерах Managed Kubernetes;
✔️ Кейсы применения Karpenter. Оптимизация GPU-инфраструктуры с сервисом.
В конце ответим на вопросы — задавайте их в форме регистрации. На вебинаре особенно полезно будет DevOps-инженерам, техлидам и СТО, системным администраторам и архитекторам.
Как построить ML- AI-инфраструктуру или ускорить существующие AI-проекты
Привет, Хабр!
Приглашаем на вебинар о новой редакции нашей платформы котнейнеризации – Nova AI. Покажем новую версию платформы, созданную специально для ML-и AI-задач и расскажем, как она упрощает запуск инфраструктуры для ML/DS-команд, ускоряет развертывание локальных LLM-и AI-сервисов и сокращает расходы на GPU до 95%.
О чем еще поговорим:
Как развивается рынок AI и почему компании переходят на локальные LLM
Что представляет собой Nova AI и чем она отличается от классического Kubernetes
Как построить инфраструктуру для ML-проектов за 1 день
Реальные кейсы, технологический стек, безопасность и комплаенс
Дорожная карта продукта и шаги внедрения
Вебинар будет особенно актуален для ИТ-директоров, архитекторов, инженеров по данным и всех, кто отвечает за развитие ИИ в компании. Регистрация доступна по ссылке.
Orion soft выпустил новую редакцию платформы контейнеризации – Nova AI
Мы представили новую редакцию платформы контейнеризации Nova Container Platform, созданную специально для работы с ИИ и машинным обучением. Это первое отечественное Kubernetes-решение, оптимизированное под инфраструктурные и эксплуатационные задачи ML/AI.
Nova AI помогает ИТ-командам и ML/DS-специалистам быстро запускать и масштабировать инфраструктуру для обучения моделей, развертывания LLM-сервисов и инференса, обеспечивая при этом безопасность, совместимость с российскими операционными системами и эффективность использования GPU.
Новая редакция разработана как решение ключевых проблем, с которыми сталкиваются компании при запуске и развитии проектов, связанных с ML и AI. Среди них высокая стоимость GPU и оборудования, дефицит опытных MLOps-инженеров, сложности с безопасностью и соответствием требованиям регуляторов, низкая утилизация ресурсов, долгое развертывание и настройка инфраструктуры под LLM и AI-сервисы.
Ключевые преимущества Nova AI
Для ИТ-руководителей Nova AI обеспечивает ощутимую экономию ресурсов: за счет виртуализации и дробления мощностей она позволяет сократить затраты на GPU до 70%. Решение ускоряет выдачу инфраструктуры, помогает соблюдать SLA и упрощает управление благодаря унифицированному кластеру, подходящему для всех AI- и ML-задач. Nova AI также поддерживает требования по информационной безопасности и комплаенсу, обеспечивая защиту токенов и данных. Платформа гибка в размещении, она может быть развернута как на bare-metal, так и в виртуализированной среде (включая отечественную платформу виртуализации zVirt), с полной поддержкой российских операционных систем, таких как Astra Linux и РЕД ОС.
Инженеры и ML-специалисты получают готовое рабочее окружение на базе таких инструментов, как JupyterHub, MLflow, Airflow и MinIO, что позволяет быстро приступить к работе. Кроме этого, Nova AI обеспечивает стабильную работу драйверов и предсказуемость поведения инфраструктуры. Безопасность встроена по умолчанию: используется контейнерная защита NeuVector и централизованное управление секретами с помощью StarVault. Платформа сокращает время на запуск и настройку, а также сопровождается подробной документацией и технической поддержкой на всех этапах внедрения и эксплуатации.
«Сегодня мы видим особый спрос на нашу платформу со стороны промышленных и нефтегазовых предприятий, банков и финтех-организаций, ритейлеров с развитыми аналитическими командами, а также государственных структур, где важно быстро и безопасно развернуть инфраструктуру для ИИ и машинного обучения. Nova AI выбирают там, где нужно ускорить запуск LLM- и AI-сервисов, снизить затраты на оборудование и перейти от разрозненных экспериментов с моделями к управляемой и масштабируемой ML-платформе уровня Enterprise», – прокомментировал Александр Фикс, лидер продукта Nova Container Platform в Orion soft.
Задача с system design interview как тема для пет проекта
Здравствуйте, уважаемые читатели. Интересуюсь микро сервисной архитектурой. Хотел бы написать серию статей, в которых поделюсь своим опытом создания пет проекта на микросервисах. Общее название - "Задача с system design interview как тема для пет проекта". В качестве задачи будет система сокращения ссылок. Хочу показать весь путь от реализации первой крайне упрощенной версии до полноценной версии с кешированием, базой данных и размещением на сервере. Система будет реализована на Golang. На Хабре уже есть статья с такой темой. Как Вы думаете нужны ли еще статьи по данной тематике?
Лучший стэк для запуска MVP SaaS-стартапа в РФ на 2025 год.
Вот наш боевой стэк, который мы сейчас используем для разработки SaaS-стартапа.
Проверено на собственной шкуре!
✅ Frontend:
- NextJS 15 (+React 19, Turbopack, Server Actions) - актуальный стек для веб-приложений.
- Shadcn UI (сделана на Tailwind) - библиотека UI-компонентов, чтобы сделать крутой интерфейс без дизайнеров.
- Netlify - бесплатный хостинг для тестовой версии продукта.
✅ Backend:
Supabase:
- База данных
- Database SQL Functions (функции сразу в базе PostgreSQL)
- Edge Functions (серверные функции на TypeScript)
Nextauth:
- Авторизация
✅ Инфраструктура:
Kubernetes:
- Репликация БД и сервисов на 3-х Worker-нодах
- Rollout-обновления без простоя
- Политики безопасности и изоляция
- CI/CD из GitHub.
+ Пароли/ключи в KeePass XC.
✅ Инструменты:
- IDEA Ultimate - среда разработки
- Cursor - для вайбкодинга (чистый, без всяких инфоцыганских MCP)
- DBeaver - для работы с БД
- GitHub - репозиторий
✅ Платежка
- Robokassa (РФ + иностранные платежи)
✅ Лендинг + блог
- Tilda (проще сделать сайт на конструкторе, чем все это вайбкодить)
Как мы все настроили
- Развернули проект в облачном хостинге в РФ, чтобы хранить данные в соответствии со 152 ФЗ. Выбрали хостинг с k0s, потому что он дешевле классического k8s.
- Supabase поставили на свой сервер (Cloud не подходит, так как данные хранятся не в РФ).
- Настроили регулярные бэкапы (хотя мы еще не релизились, но 1 раз у нас уже отлетали жесткие диски).
Почему именно такой стэк?
- Проще работать с технологиями, которые ты уже хорошо знаешь.
- Нам важна надежность, быстрое переключение новых версий на проде без простоя и возможность разделить продукт на версию под РФ и "мир".
- Для работы в РФ нужно хранить персональные данные в РФ и избегать трансграничной передачи данных.
- Конструктор сайтов как простой и недорогой вариант для лендингов и блога. Чтобы не вайбкодить целую CMS.
Сейчас мы подключаем платежку, причесываем баги, допиливаем лендинг и готовимся к релизу.
А какие технологии используете вы для разработки MVP?
Не Standup, a Stackup: ИT-Дженга. Контейнеризация.
21 ноября 2025 в 16:00 приглашаем на онлайн-митап «Не Standup, a Stackup: ИT-Дженга. Контейнеризация».
Эксперты ИТ-рынка столкнутся в игровом поединке, чтобы разобраться с вызовами российского рынка контейнеров. Никаких скучных и затянутых рассуждений – только польза в формате всеми любимой «дженги». А кто станет победителем – решат зрители.
Присоединяйтесь к онлайн-трансляции ИТ-Дженги, чтобы:
Рассмотреть актуальные проблемы на стыке бизнеса и технологий
Узнать нестандартные способы их решения от экспертов
Проголосовать за самого креативного участника в конце события
Вдохновиться, посмеяться и просто приятно провести время
Кому будет интересно:
Техническим менеджерам
DevOps-специалистам
CTO
CIO
Директорам по разработке
Представители команд:
Михаил Федоров, ведущий специалист по вопросам внедрения и эксплуатации Kubernetes и Linux, Ингосстрах
Александр Фикс, лидер продукта Nova Container Platform, Orion soft
Александр Чубов, руководитель практики «Контейнеризация», К2Тех
Регистрируйтесь на ИТ-Дженгу и присоединяйтесь к трансляции.