Успей зарегистрироваться на GoCloud Tech 2025 — IT-конференцию про AI, облачную инфраструктуру и работу с данными ☁️ + 🤖 + 💿
Привет! Регистрация закроется 2 сентября в 17:00 по мск, так что еще есть возможность влететь в последний поезд и попасть на самое технологическое событие этой осени — IT-конференцию о создании решений на базе AI и облаков.
Напомним, что вас ждет:
4 трека: AI&ML, Cloud Infrastructure, Data&Analytics, Dev Platform Services;
демо и интерактивные зоны новых AI-сервисов и сервисов платформы Cloud․ru Evolution;
Успей зарегистрироваться на IT-конференцию про облака, AI и данные — GoCloud Tech 2025 и попробовать новые сервисы на практике 🕹️
Привет! Совсем скоро закончится регистрация на нашу очередную технологическую конференцию о создании решений на базе AI и облаков. И мы хотим напомнить, что помимо демозон, Career Lab, активностей, мерча и afterparty, вас на площадке будут ждать воркшопы:
👩🔧 Вайб-кодинг с минимумом технического долга с сервисами Cloud.ru
Вайб-кодинг с минимумом технического долга — согласитесь, звучит дерзко? Но на самом деле, если подойди к вопросу грамотно, то это может стать реальность.
На воркшопе разберем практики чистого и безопасного вайб-кодинга, рассмотрим, как с помощью сервиса Evolution Foundation Models подключить кодовые LLM-модели к VS Code IDE и научим ее генерировать фичи в вашем стиле без пропуска уязвимостей. Затем настроим IDE так, чтобы она творила магию и ни разу не сделала rm -rf, а еще — рассмотрим сервис мониторинга качества кода и безопасности SonarQube, чтобы ловить проблемы раньше, чем они доберутся до продакшна.
👨🔧 Плейлист как на ладони: real-time аналитика для музыкального стриминга без боли и магии
New Music Friday — это традиция выпуска новых музыкальных релизов в пятницу, когда лейблы и артисты синхронно публикуют свежие треки, что вызывает «пиковый» всплеск внимания у слушателей в первые часы и дни их выхода. На воркшопе мы изучим это явление, используя потоковую обработку и мгновенный доступ к данным, и покажем, как в этом помогают сервисы Cloud.ru Evolution:
- Managed Kafka — принимать события прослушиваний в реальном времен;.
- Managed Spark — читать сообщения из Kafka, обогащать их и сохранять в объектное хранилище в формате Iceberg (мгновенный доступ к историческим и текущим срезам);
- Managed Trino — мгновенно объединять потоковые данные из Iceberg с static‑данными о треках и пользователях, хранящиеся в Managed Postgres;
- Managed Metastore — поддерживать схемы Iceberg и обеспечивать согласованность;
- Managed BI — визуализировать результаты на дашбордах в real-time.
👩🔧 Создание мультиагентной системы
Приглашаем всех, кто хочет попробовать:
- фреймворк Smolagents от Hugging Face,
- создавать кастомные инструменты для агентов,
- делать интеграцию с внешними API (Serper.dev и другими),
- координировать работу между несколькими специализированными агентами.
👨🔧 Маркетплейсы глазами вендора
Предлагаем взглянуть на весь путь партнера, который хочет вывести свой продукт или решение на Маркетплейс, на примере компании Русбитех-Астра. Вы узнайте про основные потребности и сложности, с которыми сталкиваются партнеры в процессе выхода на маркетплейсы, а еще — совместно создадите идеальную витрину.
Почувствуйте себя менеджером продукта, присоединяйтесь к дискуссии и делитесь идеями, чтобы мы могли сделать Маркетплейс Cloud.ru еще удобнее и полезнее для действующих и будущих партнеров и клиентов.
👩🔧 Быстрая разработка в GigaIDE Cloud
Что, еще одна IDE? Зачем нам еще одна IDE? Вопрос хороший, ведь ответ — возможно, низачем. На самом деле нам нужна среда, которая позволит решать больше актуальных проблем с помощью уже существующих инструментов (например, Visual Studio Code или Jupyter Notebook).
Репозиторий из GitHub или GitVerse так долго открывается, что уже легко забыть, зачем мы это делали. Чтобы изменить три строчки в ноутбуке, нужно разворачивать Jupyter Lab, а для того, чтобы воспользоваться AI-ассистентом, нужно ставить плагины, покупать учетки и настраивать прокси. Знакомо?
Чтобы закрыть этот гэп, Microsoft придумала GitHub CodeSpaces — онлайн-среду, встроенную в GitHub. А в России есть отличная альтернатива — GitVerse, которая позволит в пару кликов запустить полноценную среду разработки, уже настроенную на нужный репозиторий, с бесплатным AI-ассистентом и набором полезных плагинов. А на воркшопе мы как раз попробуем все это сделать и оценим, какие задачи это поможет упростить.
📅 Когда: 3 сентября
📍 Где: в Лофт-пространстве Goelro в Москве + трек «AI&ML» онлайн
Валидация RAG с помощью RAGAS — доклад на IT-конференции GoCloud Tech 2025 ☁️
Retrieval-Augmented Generation — мощный инструмент, но вы уверены, что ваш RAG действительно работает? RAGAS — это метрика, которая даст ответ. По ходу доклада разберемся, как оценивать качество генерации, релевантность документов и достоверность ответов. Поговорим о метриках и пайплайнах, а также покажем, как найти слабые места в RAG-системе до того, как это сделает пользователь.
Трек: AI&ML — про AI-продукты нашей разработки и работу с GenAI. Узнаете, как устроены RAG-системы и мультиагентные ассистенты, а также, для чего они уже применяются и как начать их использовать.
Тестируем Evolution SDN с помощью ovn-heater — доклад на IT-конференции GoCloud Tech 2025 ☁️
Не секрет, что тестирование производительности SDN — критически важный аспект в оценке эффективности и надежности работы сетевой инфраструктуры. В докладе поделимся подходом к тестированию производительности SDN c помощью открытого инструмента ovn-heater. Расскажем про наши доработки, математический подход к сбору и анализу данных, а также поделимся результатами, на сколько удалось ускорить управление и обмен данными.
Трек: Cloud Infrastructure — про построение устойчивой, масштабируемой и безопасной облачной инфраструктуры.
Снятся ли управляемым СУБД быстрые NVME-oF RDMA-диски — тема доклада на IT-конференции GoCloud Tech 2025 ☁️
Мы задались вопросом улучшения производительности управляемой PostgreSQL и хотим рассказать, что из этого получилось. По ходу доклада обсудим:
- почему IO Latency имеет значение, а bandwidth нет;
- причем тут подключаемые диски NVME-oF;
- почему offloading — не панацея, а RDMA полезен лишь в малых дозах;
- как провести full-scale эксперименты в целой AZ и остаться вменяемым человеком.
Трек: Data&Analytics — обсудим тренды и возможности облачных сервисов, методы их интеграции с AI-агентами, а также инструменты для быстрого и эффективного решения задач хранения, обработки и анализа данных.
Тренды в мире данных: куда стремятся СУБД и как их сравнивать в новых реалиях — тема доклада на IT-конференции GoCloud Tech 2025 ☁️
Приглашаем обсудить современные тенденции в мире данных. На встрече поговорим о стремлении СУБД к «облачности» и HTAP-универсальности, а еще разберем нововведения в бенчмарках — почему классических решений недостаточно и что с этим делать.
Трек: Data&Analytics — обсудим тренды и возможности облачных сервисов, методы их интеграции с AI-агентами, а также инструменты для быстрого и эффективного решения задач хранения, обработки и анализа данных.
Узнайте, как с помощью RAG дать AI-агенту релевантную информацию из ваших документов и избавить его от галлюцинаций 🤖
📆 Когда: 28 августа в 11:00 мск
📍 Где: онлайн
На вебинаре расскажем, как правильно подготовить документы с информацией для агента, где все это хранить, а еще — как настроить обработку данных так, чтобы LLM не пришлось дообучать, а ответы при этом стали лучше. Работу с RAG рассмотрим на примере сервиса Evolution Managed RAG.
О чем поговорим:
как используем RAG в Cloud.ru — опишем реальный кейс;
как управлять данными и версионировать базы знаний;
как работает Evolution Managed RAG и какие у него возможности;
проведем демо и покажем бота в Telegram, который отвечает на вопросы на основе ваших данных.
Будет полезно всем, кто хочет внедрить AI-инструменты для работы с клиентами или автоматизации задач, например разработчикам, архитекторам и другим IT-специалистам.
Как оптимизировать бэкапы и резервное восстановление в облаке? Расскажем на вебинаре 👨💻
📆 Когда: 26 августа в 11:00 мск
📍 Где: онлайн
Объемы данных растут — растут и операционные расходы, а еще риски утери информации. Поговорим о том, как оптимизировать резервное копирование и восстановление данных, и вместе с этим сэкономить на их защите. Будет полезно IT-директорам, системным администраторам, инженерам и архитекторам инфраструктуры.
На вебинаре расскажем:
что такое резервное копирование и аварийное восстановление, в чем между ними разница и когда они нужны;
что такое непрерывность данных, как ее обеспечить и для чего здесь нужно облако;
дополнительные способы защиты информации.
Бонусом проведем демо в прямом эфире: эксперты Cloud.ru настроят в облаке резервное копирование и аварийное восстановление.
Мы открываем бесплатный доступ к моделям в Evolution Foundation Models до 31 октября.
В сервисе уже доступно больше 20 open source моделей, в том числе новинки от OpenAI — gpt-oss-120b, DeepSeek, Qwen и QwQ, T-pro-it-2.0. А еще — новая open source модель GLM-4.5 с контекстным окном в 131 тысячу токенов от китайской компании Z․ai. Она показала высокие результаты на бенчмарках, особенно в агентных задачах и программировании. Как интегрировать GLM-4.5 в VS Code рассказали в нашем telegram-канале.
Все модели могут подключаться к внешним инструментам с Function Calling и поддерживают Reasoning.
Как попробовать:
Регистрируйтесь в личном кабинете Cloud․ru.
Выбирайте подходящие модели.
Интегрируйте их по OpenAI-совместимому API в ваши проекты, сравнивайте ответы и получайте быстрые результаты.
Интеграция VXLAN в архитектуру LBaaS: наш опыт и решения — тема доклада на IT-конференции GoCloud Tech 2025 ☁️
Расскажем про обновленный балансировщик сетевой нагрузки: какие есть отличия от старого, что уже появилось и еще появится в новом. Разберем его архитектуру и способы управления VXLAN в K8s, затронем тему перформанса и дальнейшего увеличения производительности.
Трек: Cloud Infrastructure — про построение устойчивой, масштабируемой и безопасной облачной инфраструктуры.
Evolution AI Agents + A2A ADK, или собираем мультиагентную систему для любых задач — доклад на конференции GoCloud Tech 2025 ☁️
Мультиагентные системы — уже не футуризм, а рабочий инструмент. Поэтому в докладе расскажу, как с помощью A2A ADK (Agent-to-Agent Development Kit) и платформы Evolution AI Agents можно не только собрать собственную агентную систему, но и встроить ее в реальный бизнес-процесс — от обработки заявок и мониторинга логов до помощи в продажах и технической поддержке.
Трек: AI&ML — про AI-продукты нашей разработки и работу с GenAI. Узнаете, как устроены RAG-системы и мультиагентные ассистенты, а также, для чего они уже применяются и как начать их использовать.
Рассказываем, что такое протокол A2A и в чем его особенности 🤖
AI-агент — автономное программное решение на базе LLM, которое понимает контекст и использует цифровые инструменты (Tools). AI-агенты анализируют информацию, обучаются на данных, планируют действия и адаптируются к изменяющимся условиям среды, в которой работают. А еще агенты могут объединяться в мультиагентные системы, чтобы решать больший пул задач.
Один из популярных протоколов для работы с агентами — Agent2Agent (A2A). Он представлен компанией Google в апреле этого года и призван решить важную задачу — сделать так, чтобы агенты, созданные на базе различных фреймворков, разными компаниями, работающие на отдельных серверах, могли эффективно взаимодействовать и сотрудничать. Именно с помощью A2A агенты делегируют друг другу полномочия и управляют общими задачами.
Наличие «карточек агента» с информацией о его возможностях и способах подключения. Одни агенты просматривают карточки других и выбирают нужных для решения задачи.
Поддержка синхронного запроса и ответа, потоковой передачи (SSE), асинхронных уведомлений.
Обработка текста, файлов и структурированных данных JSON.
Поддержка современных механизмов авторизации и мониторинга, что важно для внедрения протокола для корпоративных нужд.
Чтобы больше узнать о принципах работы протокола, смотрите документацию A2A. А с сервисом Evolution AI Agents вы сможете создавать собственные мультиагентные системы на базе A2A, подключать агентов к протоколу MCP, использовать LLM, мониторить их и быстро внедрять RAG.
Так мы узнаем, что еще можно улучшить, чтобы free tier стал для вас еще удобнее и полезнее. А еще, в перспективе сможем подключить его и для других облачных сервисов 😉
Текущие условия:
виртуальная машина в конфигурации 2vCPU, 4 ГБ RAM, диск 30 ГБ;
ежемесячный объем хранилища S3 — 15 ГБ, 100 000 операций PUT/POST/LIST, 1 000 000 операций GET/HEAD, 10 ТБ исходящего трафика;
ежемесячный объем ресурсов для запуска контейнеров — 120 vCPU x час, 480 ГБ RAM х час.
Этого хватит, чтобы хранить важные данные, развернуть сервер Minecraft, запустить умного Telegram-бота с AI, опубликовать персональный сайт или реализовать любые другие сценарии.
Знакомьтесь с программой, выбирайте доклады и регистрируйтесь на GoCloud Tech 2025 🤖
Делимся программой IT-конференции про AI, облака и работу с данными — GoCloud Tech 2025.
10:00 – 11:00 Регистрация
11:00 – 11:30 Открытие конференции
12:00 – 17:00 Доклады. Четыре трека на выбор:
AI&ML — про AI-продукты нашей разработки и работу с GenAI. Узнаете, как устроены RAG-системы и мультиагентные ассистенты, а также, как они уже применяются в работе и как начать их использовать
Cloud Infrastructure — про построение устойчивой, масштабируемой и безопасной облачной инфраструктуры: нюансы сетевой архитектуры, проектирование IaaS‑кластеров на K8s, возможности балансировщиков и производительность SDN.
Data&Analytics — про современные подходы к Big Data и аналитике: тренды, возможности облачных сервисов, интеграцию с AI-агентами и инструменты для быстрого и эффективного решения задач хранения, обработки и анализа.
Dev Platform Services — в рамках трека разберем детали и заглянем «под капот» решений, чтобы затем облегчить повседневную рутину разработки и настройки сервисов, а еще — оптимизировать процессы в инженерных командах.
17:15 – 21:00 Afterparty и нетворкинг
Также вас ждут технические воркшопы, кастомный мерч, демо и интерактивные зоны новых AI-сервисов и сервисов платформы собственной разработки Cloud․ru Evolution.
📆 Когда: 3 сентября
📍 Где: приходите в Лофт-пространство Goelro в Москве или подключайтесь к онлайн-трансляции трека «AI&ML» в VK и на Twitch. Основная программа начнется в 11:00.
Как легко запустить модель в облаке из Hugging Face ❓
Расскажем, как развернуть нужную вам модель — в качестве примера возьмем сервис Evolution ML Inference. Вам не понадобится создавать Docker-образ, скачивать и устанавливать Environment и CUDA, а весь процесс займет пять минут. Мы засекали 👌
Пошаговая инструкция запуска модели:
1. Сперва получите доступ к модели. Для этого зарегистрируйтесь в Hugging Face, получите токен доступа (User Access Token) и создайте секрет в Secret Management, указав токен Hugging Face.
2. Создайте инференс — зарегистрируйтесь в личном кабинете Cloud.ru, перейдите в ML Inference, выберите пункт Model RUN и нажмите «Создать».
3. Введите название инференса и выберите Runtime — это фреймворк, который позволяет делать инференс. Нужный Runtime зависит от задачи: для запуска LLM советуем vLLM, для диффузионных моделей — Diffusers, а для базовых моделей подойдет Transformers. Также укажите версию фреймворка, по умолчанию выставлена последняя.
4. Кликните «Добавить модель из Hugging Face» и выберите секрет с токеном — его вы получили на шаге 1.
5. Нажмите «Добавить», поле «Задача модели» заполнится автоматически.
6. Введите дополнительные параметры для каждого фреймворка. Допустим, у vLLM советуем указать: «Enable prefix caching», «Enable chunked prefix», «KV cache type: FP8».
7. Определитесь с нужным объемом памяти GPU и количеством карт. Калькулятор подскажет, сколько ресурсов понадобится для запуска модели, для которой вы указали адрес репозитория.
8. Настройте автомасштабирование: минимальное и максимальное количество экземпляров, запросов в секунду, тип масштабирования, к примеру, Concurrency или RPS.
9. Если нужно, активируйте опцию «Аутентификация» и «Логирование запросов».
Все готово, осталось нажать «Создать», и инференс запустится в течение нескольких минут. Нужно только дождаться, когда инференс перейдет в статус «Запущено» и появится публичный URL для запроса к модели.
Как итог — модель запущена за пять минут, мощности для ее работы выделяются автоматически, а вы платите только за использованные по факту ресурсы. Если хотите запустить кастомную модель, например, с использованием Triton Inference Server, попробуйте Docker RUN в Evolution ML Inference.
Что будем обсуждать и про что рассказывать на GoCloud Tech ☁️
3 сентября, уже почти через месяц, состоится наша вторая технологическая IT-конференция про облака и AI — GoCloud Tech.
Мы запланировали для вас четыре трека:
🤖 AI&ML — про AI-продукты нашей разработки и работу с GenAI. Узнаете, как устроены RAG-системы и мультиагентные ассистенты, а также, как они уже применяются в работе и как начать их использовать
☁️ Cloud Infrastructure — про построение устойчивой, масштабируемой и безопасной облачной инфраструктуры: нюансы сетевой архитектуры, проектирование IaaS‑кластеров на K8s, возможности балансировщиков и производительность SDN.
📈 Data&Analytics — про современные подходы к Big Data и аналитике: тренды, возможности облачных сервисов, интеграцию с AI-агентами и инструменты для быстрого и эффективного решения задач хранения, обработки и анализа.
⚙️ Dev Platform Services — в рамках трека разберем детали и заглянем «под капот» решений, чтобы затем облегчить повседневную рутину разработки и настройки сервисов, а еще — оптимизировать процессы в инженерных командах.
А еще вас ждет:
демо и интерактивные зоны новых AI-сервисов и сервисов платформы Cloud․ru Evolution;
технические воркшопы;
нетворкинг, кастомный мерч и afterparty.
Как принять участие:
Подключайтесь к онлайн-трансляции в VK и на Twitch (ссылка придет зарегистрированным участникам в письме) или приходите в Лофт-пространство Goelro в Москве. Собираемся 3 сентября в 10:00, а основную программу начинаем в 11:00. Кстати, ей мы тоже совсем скоро с вами поделимся.
📍 Где: в Лофт-пространстве Goelro в Москве и онлайн в VK и на Twitch
---
Скоро мы поделимся программой и начнем анонсировать доклады — не переключайтесь! А как прошли предыдущие конференции Cloud.ru можно почитать в статьях:
Что посмотреть в воскресенье вечером? Ловите подборку фильмов про AI 📽️
Сегодняшняя подборка от Владимира Килязова — технического эксперта по машинному обучению в Cloud.ru.
🎞️ Бегущий по лезвию (1982)
Киберпанк-антиутопия Ридли Скотта о будущем, снятая по научно-фантастическому роману «Мечтают ли андроиды об электроовцах?». В этом мире AI в форме биоинженерных репликантов достигли уровня, где эмоции и самосознание — не баг, а фича. Главное теперь — как жить рядом с ними.
Почему стоит посмотреть: главный герой проводит Voight-Kampff тест — аналог теста Тьюринга,
🎞️ Она (2013)
Писатель влюбляется в умную и чувственную операционную систему по имени Саманта. Трогательный взгляд на то, как технологии меняют наши отношения.
Почему стоит посмотреть: поразмышлять на тему, может ли одинокий человек иметь чувства к AI. Фильм стал настолько пророческим, что OpenAI в своих презентациях делают к нему отсылки.
🎞️ Космическая одиссея 2001 года (1968)
Классический научно-фантастический фильм Стэнли Кубрика, следящий за путешествием космического корабля «Дискавери-1» с миссией на Юпитер. HAL 9000 — это продвинутый AI, который обладает способностью мыслить и принимать решения, но в один момент начинает проявлять тревожное поведение, подвергая опасности экипаж.
Почему стоит посмотреть: насладиться эстетикой космических путешествий и sci-fi, подумать, можем ли мы доверять машинам и что может случиться, если они начнут действовать самостоятельно.
🎞️ Из машины (2014)
История программиста, который приглашен в поместье своего начальника для проведения теста Тьюринга над девушкой-андроидом Авой. По ходу тестирования он начинает задаваться вопросами о том, что значит быть человеком. Фильм исследует возможности и границы самосознания, эмоционального восприятия и морали в рамках AI. Ава, андроид с совершенной имитацией человеческого поведения, становится зеркалом человеческих страхов и надежд относительно технологий.
Почему стоит посмотреть: понаблюдать, как может выглядеть девиация сознания AI — уход от заложенного поведения в сторону человеческих ценностей и чувств.
🎞️ Терминатор 2: Судный день (1991)
AI в этом фильме представлен через Скайнет — самоосознанную информационную сеть, которая инициировала ядерный апокалипсис. Фильм исследует концепции сознания машин и потенциальные риски AI, которые могут возникнуть, если они выйдут из-под человеческого контроля.
Почему стоит посмотреть: классика жанра экшн-фильмов. Фильм хорошо балансирует между зрелищными сценами и размышлениями о будущем технологий. Кроме того, студия Industrial Light Magic (ILM) использовала алгоритмы морфинга и процедурной анимации, которые стали основой для будущего развития AI.
🎞️ AlphaGo (2017)
Документальный фильм, который рассказывает о создании программы AlphaGo DeepMind и ее конкуренции с Ли Седолем — одним из лучших игроков в мире. AlphaGo стал знаменательным событием в сфере AI, продемонстрировав способность машин обучаться и творчески адаптироваться в условиях игры, которые требуют больших стратегических раздумий и ресурсов, традиционно считавшихся прерогативой человека.
Почему стоит посмотреть: фильм о том, как «ученик превзошел учителя». AlphaGo стала одним из первых больших достижений в сфере машинного обучения и позволила проложить путь к новым открытиям в биологии и медицине.
🎞️ Artificial Gamer (2020)
Документальный фильм, исследующий киберспорт и интеграцию AI в конкурентные игровые среды. Фильм рассматривает, как технологии меняют динамику взаимодействий и стратегий в профессиональных играх.
Почему стоит посмотреть: узнать, что разрабатывали OpenAI до ChatGPT и как обученные боты могут обыгрывать профессиональных киберспортсменов в Dota 2.
А в комментариях пишите — какие уже смотрели? И какие еще фильмы готовы порекомендовать и почему? 👇
Представьте, что вы зашли в ChatGPT и спросили: «На каких технологиях построен сервис Evolution AI Agents от Cloud.ru?». Допустим, модель GPT‑4o обучена на данных до октября 2023 года, а Evolution AI Agents появился позже. В этом случае GPT‑4o даст ответ, но он будет неверным, так как актуальных сведений у модели попросту нет.
И вот тут в игру вступает RAG (Retrieval-Augmented Generation) — метод работы с информацией, благодаря которому большая языковая модель может брать данные из сторонних источников.
RAG делает ответы более актуальными, так как LLM не ограничивается информацией, на которой ее обучали. А еще RAG помогает бороться с галлюцинациями — если подгрузить достоверные и проверенные источники, модель будет брать информацию из них.
Какими данными можно обогатить LLM с помощью RAG:
базами данных — векторными, графовыми, SQL и NoSQL;
документами;
информацией из веб-поиска — этим занимаются поисковые агенты;
сведениями из внешних API: курс валют, погода, актуальные дата и время.
В векторных БД RAG позволяет делать семантический поиск — не по совпадениям слов, а по их смыслу. Для этого есть специальные модели — эмбеддеры — которые переводят каждое слово в базе данных из запросов пользователя в векторы. После векторная БД сопоставляет векторы из запроса и базы данных, ищет наиболее схожие, и на основе этого модель дает ответ.
В базу знаний LLM можно подгрузить корпоративную БД, полезные статьи, исследования, данные из CRM, документацию, юридические документы и много чего еще. Например, с помощью Evolution Managed RAG — он поможет обогатить модель вашими данными, версионировать БД и повысить точность ответов.
Vulnerability management — непрерывный процесс поиска, выявления и устранения уязвимостей. И это — один из ключевых аспектов в поддержании информационной безопасности всей IT-инфраструктуры 🔃
📆 Когда: 7 августа в 11:00 мск
📍 Где: онлайн
На вебинаре разберем ключевые методы защиты от киберугроз на уровне контейнеров и Kubernetes.
Что вы узнаете:
Как устроена безопасность в Kubernetes — архитектурные особенности и «подводные камни».
Типовые модели атак — кто и как чаще всего атакует контейнерные среды.
5 самых уязвимых компонентов системы контейнеризации — какие элементы требуют особого контроля и почему.
Лучшие практики защиты Kubernetes-контейнеров — от сканирования образов до политик безопасности.
Стратегии митигации киберрисков — как минимизировать угрозы до их реализации.
Присоединяйтесь, чтобы послушать про реальные кейсы и получить практические рекомендации по защите вашей инфраструктуры. А еще читайте статьи по теме:
Будет особенно полезно DevOps-инженерам, техническим лидерам, директорам по разработке, специалистам по кибербезопасности, а также всем, кого интересует тема безопасности Kubernetes.