Docker долго был самым популярным инструментом контейнеризации, но сейчас все больше сервисов переходит на Podman. Вы уже умеете работать с ним? Тогда проверьте свои знания базовых команд.
Evolution AI Agents + A2A ADK, или собираем мультиагентную систему для любых задач — доклад на конференции GoCloud Tech 2025 ☁️
Мультиагентные системы — уже не футуризм, а рабочий инструмент. Поэтому в докладе расскажу, как с помощью A2A ADK (Agent-to-Agent Development Kit) и платформы Evolution AI Agents можно не только собрать собственную агентную систему, но и встроить ее в реальный бизнес-процесс — от обработки заявок и мониторинга логов до помощи в продажах и технической поддержке.
Трек: AI&ML — про AI-продукты нашей разработки и работу с GenAI. Узнаете, как устроены RAG-системы и мультиагентные ассистенты, а также, для чего они уже применяются и как начать их использовать.
Сидел я как-то на работе, вяло листал Хабр и тут мне прилетает письмо "счастья" от Яндекса, где указано что с 1 сентября они переходят на лицензионный договор и теперь их услуги НДС не облагаются.
Думаю - ну ладно, наверное что-то там оптимизируют у себя. Раз не облагаются, то видимо НДС уберут из цены. Налога-то больше нет, правда? (тут мем с энакином).
Однако техподдержка Яндекса меня убедила, что цена остается прежней, просто налога (который возвращается) больше не будет. А значит это уже второе повышение стоимости Яндекс 360 за этот год, итого + 50%.
При этом полезного функционала за последние 2 года было добавлено ровно 0.
Мы развиваем в Академии Selectel Security Center — спецпроект по информационной безопасности. Чтобы сделать его еще полезнее, нам важно знать, какие темы вам интересны.
Возможно, вы читаете новости об утечках? Или вас интересуют инструкции по защите инфраструктуры? А может, вы хотите узнать о новых угрозах? Расскажите об этом — пройдите короткий опрос.
С нас — подарки
15–21 сентября среди всех, кто поделится мнением, разыграем подарки:
Войти в hardware-тестирование можно с любым бэкграундом. В команде HW QA в YADRO есть специалисты, которые ранее не работали с серверами, и те, кто с первого дня уверенно пользуется осциллографом. От новых сотрудников не ожидают готовых экспертных знаний — важны мотивация и желание разбираться. Остальному обучают внутри команды.
В первую неделю — оформление, знакомство с командой, лабораторией, стендами и процессами, закрепление ментора. За 14 дней — полное погружение в работу с BMC. В первый месяц поощряется командное взаимодействие.
На 2–4 неделе — изучение Linux, устройства продуктов, компонентов, прошивок и инструментов, работа по чек-листам: запуск тестов, анализ результатов. Ко второму месяцу — доступ к целевой платформе, документации и задачам среднего приоритета.
После адаптации определяется вектор роста и формируется индивидуальный план развития с обозначением компетенций и точек роста.
Пример использования матрицы компетенций для оценки сотрудников
Сейчас команда ищет HW QA-инженера в департамент разработки аппаратных средств. Задачи — тестирование инженерных образцов, валидация компонентов, настройка стендов, автоматизация, работа с BIOS, BMC и прошивками.
Рассказываем, что такое протокол A2A и в чем его особенности 🤖
AI-агент — автономное программное решение на базе LLM, которое понимает контекст и использует цифровые инструменты (Tools). AI-агенты анализируют информацию, обучаются на данных, планируют действия и адаптируются к изменяющимся условиям среды, в которой работают. А еще агенты могут объединяться в мультиагентные системы, чтобы решать больший пул задач.
Один из популярных протоколов для работы с агентами — Agent2Agent (A2A). Он представлен компанией Google в апреле этого года и призван решить важную задачу — сделать так, чтобы агенты, созданные на базе различных фреймворков, разными компаниями, работающие на отдельных серверах, могли эффективно взаимодействовать и сотрудничать. Именно с помощью A2A агенты делегируют друг другу полномочия и управляют общими задачами.
Наличие «карточек агента» с информацией о его возможностях и способах подключения. Одни агенты просматривают карточки других и выбирают нужных для решения задачи.
Поддержка синхронного запроса и ответа, потоковой передачи (SSE), асинхронных уведомлений.
Обработка текста, файлов и структурированных данных JSON.
Поддержка современных механизмов авторизации и мониторинга, что важно для внедрения протокола для корпоративных нужд.
Чтобы больше узнать о принципах работы протокола, смотрите документацию A2A. А с сервисом Evolution AI Agents вы сможете создавать собственные мультиагентные системы на базе A2A, подключать агентов к протоколу MCP, использовать LLM, мониторить их и быстро внедрять RAG.
Так мы узнаем, что еще можно улучшить, чтобы free tier стал для вас еще удобнее и полезнее. А еще, в перспективе сможем подключить его и для других облачных сервисов 😉
Текущие условия:
виртуальная машина в конфигурации 2vCPU, 4 ГБ RAM, диск 30 ГБ;
ежемесячный объем хранилища S3 — 15 ГБ, 100 000 операций PUT/POST/LIST, 1 000 000 операций GET/HEAD, 10 ТБ исходящего трафика;
ежемесячный объем ресурсов для запуска контейнеров — 120 vCPU x час, 480 ГБ RAM х час.
Этого хватит, чтобы хранить важные данные, развернуть сервер Minecraft, запустить умного Telegram-бота с AI, опубликовать персональный сайт или реализовать любые другие сценарии.
RabbitMQ — брокер распределенных сообщений, разработанный на основе стандарта AMQP (Advanced Message Queuing Protocol). Этот инструмент собирает потоковые данные из нескольких источников, после чего распределяет и маршрутизирует их для дальнейшей обработки. Выбираем брокер сообщений и подробнее знакомим с его возможностями.
Бенефиты RabbitMQ, которые выделяют его на фоне других похожих сервисов:
надежность — все сообщения в RabbitMQ будут доставлены с соблюдением порядка, даже в случае технический сбой;
масштабируемость — может работать с большими объемами данных. Также его можно развернуть не только на отдельном сервере, но и в распределенной среде;
гибкость — поддерживает большое количество сценариев для маршрутизации и распределения сообщений. Это позволяет сочетать программу со многими приложениями.
Как настроить RabbitMQ на трех операционных системах: Ubuntu, Debian и CentOS Stream, а также об основных принципах работы этой технологии — читайте в подробном гайде в базе знаний Рег.облака.
DUC meetup #2: узлы кластера, платформа на DKP CE, контроль архитектуры
Если вы работаете с Kubernetes или планируете начать, приходите 21 августа на второй митап Deckhouse User Community в Москве. Будут доклады спикеров из «Фланта», «КРОК» и «ДОМ.РФ», а ещё пицца и пиво. Регистрация — по ссылке.
Темы докладов и спикеры:
От рассвета до заката, или Как Deckhouse Kubernetes Platform управляет жизненным циклом узлов кластера — Николай Митрофанов, «Флант»
Разработка платформы для обучения K8s на основе DKP CE — Кирилл Харитонов, «КРОК»
Архитектура под контролем: фиксируем изменения с помощью AaC и фитнес-функций — Антон Сафронов, «ДОМ.РФ Технологии»
Встречаемся 21 августа в «Событие Лофт» по адресу: Николоямская улица, 28. Ближайшая станция метро — «Таганская» Кольцевой линии. Программа стартует в 19:00, приходите чуть пораньше. Больше подробностей о докладах и регистрация — на страничке митапа.
Знакомьтесь с программой, выбирайте доклады и регистрируйтесь на GoCloud Tech 2025 🤖
Делимся программой IT-конференции про AI, облака и работу с данными — GoCloud Tech 2025.
10:00 – 11:00 Регистрация
11:00 – 11:30 Открытие конференции
12:00 – 17:00 Доклады. Четыре трека на выбор:
AI&ML — про AI-продукты нашей разработки и работу с GenAI. Узнаете, как устроены RAG-системы и мультиагентные ассистенты, а также, как они уже применяются в работе и как начать их использовать
Cloud Infrastructure — про построение устойчивой, масштабируемой и безопасной облачной инфраструктуры: нюансы сетевой архитектуры, проектирование IaaS‑кластеров на K8s, возможности балансировщиков и производительность SDN.
Data&Analytics — про современные подходы к Big Data и аналитике: тренды, возможности облачных сервисов, интеграцию с AI-агентами и инструменты для быстрого и эффективного решения задач хранения, обработки и анализа.
Dev Platform Services — в рамках трека разберем детали и заглянем «под капот» решений, чтобы затем облегчить повседневную рутину разработки и настройки сервисов, а еще — оптимизировать процессы в инженерных командах.
17:15 – 21:00 Afterparty и нетворкинг
Также вас ждут технические воркшопы, кастомный мерч, демо и интерактивные зоны новых AI-сервисов и сервисов платформы собственной разработки Cloud․ru Evolution.
📆 Когда: 3 сентября
📍 Где: приходите в Лофт-пространство Goelro в Москве или подключайтесь к онлайн-трансляции трека «AI&ML» в VK и на Twitch. Основная программа начнется в 11:00.
Компания «Доктор Веб» выпустила практические рекомендации по усилению безопасности ИТ-инфраструктуры для компаний и сотрудников по ИБ. Документ основан на многолетнем опыте работы службы технической поддержки «Доктор Веб» и департамента по расшифровке файлов,
Tech2b Conf: путь реалиста. Масштабная конференция для ИТ-руководителей от К2Тех
2 сентября в Москве состоится ежегодная масштабная конференция К2Тех «Tech2b Conf: Путь реалиста». В этом году она посвящена вызовам, с которыми сталкивается ИТ-директор, и поиску зрелых решений. Как обосновать ИТ-бюджет в условиях неопределённости? Как подойти к внедрению ИИ, масштабировать инфраструктуру и подготовить команду? Как искать, развивать и удерживать кадры? Ответы на эти и другие вопросы вы найдете на Tech2b Conf 2025, где коллеги говорят напрямую, делятся опытом и поддерживают друг друга.
На конференции участников ждет:
Несколько треков живых дискуссий, 50+ спикеров: разговоры между заказчиками, интеграторами и вендорами без фасада.
Кейсы от ИТ-директоров: честный опыт внедрений, выводы и цифры.
Демо-зона 30+ флагманских российских решений, включая суперкомпьютер К2 НейроТех под ML-задачи.
Мастермайнд: ИИ-компетенции как стратегический актив.
Неформальное общение с коллегами и экспертами, вечерняя программа с нетворкингом.
Ком�� будет интересно:
ИТ-директорам
Руководителям отделов ИТ-инфраструктуры
Руководителям технической поддержки
Руководителям отделов внедрения и сопровождения
Архитекторам
Главным инженерам
Сетевым инженерам
Менеджерам продуктов
Инженерам по оборудованию
Специалистам по данным и ИИ
Будем рады видеть вас на конференции! Подробности и регистрация на конференцию – по ссылке. До встречи 2 сентября!
Как легко запустить модель в облаке из Hugging Face ❓
Расскажем, как развернуть нужную вам модель — в качестве примера возьмем сервис Evolution ML Inference. Вам не понадобится создавать Docker-образ, скачивать и устанавливать Environment и CUDA, а весь процесс займет пять минут. Мы засекали 👌
Пошаговая инструкция запуска модели:
1. Сперва получите доступ к модели. Для этого зарегистрируйтесь в Hugging Face, получите токен доступа (User Access Token) и создайте секрет в Secret Management, указав токен Hugging Face.
2. Создайте инференс — зарегистрируйтесь в личном кабинете Cloud.ru, перейдите в ML Inference, выберите пункт Model RUN и нажмите «Создать».
3. Введите название инференса и выберите Runtime — это фреймворк, который позволяет делать инференс. Нужный Runtime зависит от задачи: для запуска LLM советуем vLLM, для диффузионных моделей — Diffusers, а для базовых моделей подойдет Transformers. Также укажите версию фреймворка, по умолчанию выставлена последняя.
4. Кликните «Добавить модель из Hugging Face» и выберите секрет с токеном — его вы получили на шаге 1.
5. Нажмите «Добавить», поле «Задача модели» заполнится автоматически.
6. Введите дополнительные параметры для каждого фреймворка. Допустим, у vLLM советуем указать: «Enable prefix caching», «Enable chunked prefix», «KV cache type: FP8».
7. Определитесь с нужным объемом памяти GPU и количеством карт. Калькулятор подскажет, сколько ресурсов понадобится для запуска модели, для которой вы указали адрес репозитория.
8. Настройте автомасштабирование: минимальное и максимальное количество экземпляров, запросов в секунду, тип масштабирования, к примеру, Concurrency или RPS.
9. Если нужно, активируйте опцию «Аутентификация» и «Логирование запросов».
Все готово, осталось нажать «Создать», и инференс запустится в течение нескольких минут. Нужно только дождаться, когда инференс перейдет в статус «Запущено» и появится публичный URL для запроса к модели.
Как итог — модель запущена за пять минут, мощности для ее работы выделяются автоматически, а вы платите только за использованные по факту ресурсы. Если хотите запустить кастомную модель, например, с использованием Triton Inference Server, попробуйте Docker RUN в Evolution ML Inference.
Что такое архитектура ПО и почему она не про красивые диаграммы
Изображение сгенерировано при помощи DALL-E 3
🏗️ Архитектура программного обеспечения — это не просто модное слово для повышения ставки на собеседовании. Это фундамент, на котором строится вся система.
Что это такое на самом деле? Архитектура ПО — это структура компонентов системы, их взаимосвязи, взаимодействия с внешней средой и принципы разработки. Звучит скучно? А вот и нет! Это как план города: без него у вас получится не Москва, а какая-то деревня Гадюкино с кривыми улочками.
Зачем это нужно?
Снижает сложность системы через декомпозицию
Определяет рамки развития (чтобы не росло как раковая опухоль)
Помогает команде говорить на одном языке
Экономит нервы и деньги в долгосрочной перспективе
Под капотом архитектура отвечает за: ✅ Разбиение системы на модули (как LEGO, только для взрослых) ✅ Способы взаимодействия компонентов (REST, RPC, события) ✅ Распределение ответственности между модулями ✅ Выбор технологического стека
Простой пример: Представьте интернет-магазин. Без архитектуры у вас будет один гигантский файл на 50,000 строк, где корзина покупок живёт рядом с логикой оплаты, а пользовательские данные перемешаны с каталогом товаров. С архитектурой — отдельные модули: UserService, CatalogService, PaymentService, каждый со своей зоной ответственности.
🔧 Давайте разберём базовые понятия архитектуры, без которых никуда. Это как алфавит — скучно учить, но без него читать не получится.
Компонент — часть системы, выполняющая изолированную функцию. Думайте о нём как о сотруднике в компании: у каждого своя роль, свои обязанности, и если он заболел — его можно заменить.
Пример компонентов:
Authentication Service (следит, чтобы чужие не лезли)
Notification Service (шлёт уведомления)
Data Storage (хранит данные, очевидно)
Интерфейс — способ взаимодействия между компонентами. Это как протокол дипломатии: все знают правила игры, никто не лезет с кулаками.
Типы интерфейсов:
REST API (классика жанра)
Message Queue (асинхронные сообщения)
RPC (удалённые вызовы)
Database API (работа с данными)
Связи — физические или логические каналы передачи данных между компонентами. Это как дороги в городе: определяют, кто с кем может общаться и как.
Примеры связей:
HTTP-соединения (веб-траффик)
TCP/UDP сокеты (низкоуровневая связь)
Message Brokers (Apache Kafka, RabbitMQ)
Database connections (пул соединений с БД)
Модуль — логическая группировка компонентов по функциональности. Это как департаменты в компании: HR, IT, Бухгалтерия.
Примеры модулей:
User Management Module (всё что касается пользователей)
Payment Processing Module (платежи и транзакции)
Analytics Module (метрики и отчёты)
Сервис — автономная единица бизнес-логики с чётко определённой ответственностью. Это как мини-приложение внутри большого приложения.
Примеры сервисов:
Order Service (управление заказами)
Inventory Service (управление товарами)
Billing Service (выставление счетов)
Хранилище данных — компонент, отвечающий за персистентность информации. Это как склад или архив компании.
Типы хранилищ:
Реляционные БД (PostgreSQL, MySQL)
NoSQL (MongoDB, Redis)
Файловые системы (S3, локальные диски)
Кэши (Redis, Memcached)
SLA — характеристики работы сервиса. Это контракт: "обещаю работать 99.9% времени и отвечать за 200ms".
Зачем нужны SLA:
Понимание ожиданий от системы
Планирование мощностей
Определение критичности сервисов
Основа для мониторинга
Практический пример: Сервис авторизации должен:
Отвечать за 100ms в 95% случаев
Быть доступным 99.95% времени
Выдерживать 1000 RPS
Чеклист для правильного проектирования: ✅ Каждый компонент имеет чёткую ответственность ✅ Интерфей��ы документированы ✅ Связи (способы взаимодействия) определены ✅ Деление на сервисы произведено ✅ Способ хранения данных определен ✅ SLA определены и измеряемы ✅ Зависимости между компонентами минимальны
Помните: хорошая архитектура начинается с понимания базовых элементов. Без этого ваша система превратится в спагетти-код корпоративного масштаба.
Что будем обсуждать и про что рассказывать на GoCloud Tech ☁️
3 сентября, уже почти через месяц, состоится наша вторая технологическая IT-конференция про облака и AI — GoCloud Tech.
Мы запланировали для вас четыре трека:
🤖 AI&ML — про AI-продукты нашей разработки и работу с GenAI. Узнаете, как устроены RAG-системы и мультиагентные ассистенты, а также, как они уже применяются в работе и как начать их использовать
☁️ Cloud Infrastructure — про построение устойчивой, масштабируемой и безопасной облачной инфраструктуры: нюансы сетевой архитектуры, проектирование IaaS‑кластеров на K8s, возможности балансировщиков и производительность SDN.
📈 Data&Analytics — про современные подходы к Big Data и аналитике: тренды, возможности облачных сервисов, интеграцию с AI-агентами и инструменты для быстрого и эффективного решения задач хранения, обработки и анализа.
⚙️ Dev Platform Services — в рамках трека разберем детали и заглянем «под капот» решений, чтобы затем облегчить повседневную рутину разработки и настройки сервисов, а еще — оптимизировать процессы в инженерных командах.
А еще вас ждет:
демо и интерактивные зоны новых AI-сервисов и сервисов платформы Cloud․ru Evolution;
технические воркшопы;
нетворкинг, кастомный мерч и afterparty.
Как принять участие:
Подключайтесь к онлайн-трансляции в VK и на Twitch (ссылка придет зарегистрированным участникам в письме) или приходите в Лофт-пространство Goelro в Москве. Собираемся 3 сентября в 10:00, а основную программу начинаем в 11:00. Кстати, ей мы тоже совсем скоро с вами поделимся.
Подключайтесь к вебинару про резервное копирование и автоматизацию бэкапов
В 12:00 (мск) в прямом эфире расскажем, как настроить резервное копирование виртуальных машин и облаков, а также рассмотрим практический пример интеграции рассмотрим интеграции S3-хранилища Selectel с системой Хайстекс Акура.
Программа вебинара
— Краткий обзор облака и S3-хранилища Selectel.
— Возможности интеграции хранилища с другими сервисами: зачем нужно и как это сделать.
— Демо интеграции S3 со сторонними партнерскими бэкап-сервисами на примере Хайстекс.
Рекомендуем присоединиться системным администраторам, DevOps-инженерам и руководителям технических команд.
От вибростендов до полевых испытаний: тесты Hardware QA в реальных условиях
Как понять, выдержит ли ст��йка или сервер поездку через всю страну в контейнере или грузовике? Чтобы проверить, готово ли оборудование к реальной транспортировке, команда HW QA использует целый комплекс инструментов и методов:
Вибростолы воспроизводят типичные транспортные нагрузки — от тряски в грузовике до промышленных вибраций. Оборудование фиксируется на платформе, и на него подаются колебания заданной частоты, амплитуды и направления. Вибротесты стоек показывают, как сервера реагируют на тряску: анализ ускорения и спектр вибраций (частоты до 10–40 Гц).
Датчики ускорений фиксируют рывки и удары, чтобы оценить реальные перегрузки компонентов.
Полевые испытания: перевозят стойки по России, ставят датчики и собирают реальные профили нагрузок в зависимости от типа грузовика и подвески.
Вибротест стойки: проверяем, как сервера выдерживают тряску при перевозке
Почему это важно? Даже один отвалившийся кабель в пути может сделать стойку непригодной к использованию.
Это лишь часть арсенала Hardware QA в YADRO. В статье директор департамента верификации и контроля качества Игорь Попов рассказал, как команда проверяет стойки и серверы на прочность, какие инструменты используют и как команда инженеров моделирует реальные условия работы оборудования.
Как ИИ повышает эффективность email-маркетинга: цифры и аналитика
Искусственный интеллект трансформирует email-маркетинг, делая письма точнее и эффективнее. ИИ анализирует данные о поведении клиентов - от истории покупок до времени открытия писем - и создаёт персонализированные предложения. Например, система может предложить клиенту товар, который он искал, или отправить письмо в момент, когда он наиболее активен.
Результаты говорят сами за себя: исследования показывают, что персонализация с ИИ повышает открываемость писем до 47%, кликабельность (CTR) - до 27%, а повторные покупки - на 31%. Аналитика ИИ выявляет, какие заголовки работают лучше, и оптимизирует кампании в реальном времени, сокращая затраты на тесты.
Как ИИ мог бы усилить ваши email-кампании? Поделитесь мыслями в комментариях!
Недавно столкнулся с интересным запросом от журналиста относительно нехватки отечественных аналогов зарубежных программных решений. Казалось бы, формулировка вопроса подразумевает недостаток количества (или адаптаций под отрасли) существующих программ, однако настоящий интерес заключался именно в тех решениях, которые вовсе отсутствуют на отечественном рынке на сегодняшний день.
Вот решил задать вопрос общего характера специалистам: существуют ли зарубежные программы (любой отрасли), которым пока действительно не найдено равноценных заменителей или хотя бы приближенных аналогов среди российских разработок? Буду признателен за ваши мнения.
PS. Пост делаю впервые, поэтому сори, если не туда его отправил.
Gran KMS: как AI-ассистент революционизирует управление знаниями
Привет, Хабр! Сегодня хотим поделиться крутыми новостями о том, как развивается система Gran KMS и какие возможности открывает интеграция AI-технологий в управление корпоративными знаниями.
Что нового?
AI-ассистент стал настоящим прорывом в функционале системы. Теперь мы можем обрабатывать огромные массивы текстовых данных практически мгновенно. Представьте: многомиллионная библиотека знаний, тысячи документов — и всё это анализируется за считанные секунды!
Решаем реальные проблемы
Каждый, кто работал с корпоративными знаниями, сталкивался с типичными проблемами:
Разрозненность информации — данные разбросаны по разным системам и форматам
Сложность редактирования — обновление контента превращается в квест
Медленный доступ — поиск нужной информации занимает слишком много времени
Новая версия Gran KMS решает эти проблемы на уровне архитектуры системы. AI-ассистент не просто ищет информацию — он анализирует контекст, объединяет данные из разных источников и выдаёт релевантные ответы.
Как это работает?
Интеллектуальная обработка позволяет:
Мгновенно анализировать тексты любой сложности
Находить ответы даже в самых запутанных документах
Консолидировать информацию из разнородных источников
Предоставлять структурированные ответы
Если вы занимаетесь управлением знаниями в компании — обязательно обратите внимание на эти обновления. AI-ассистент Gran KMS может стать настоящим помощником в вашей работе!
А как вы решаете проблемы с управлением корпоративными знаниями? Делитесь опытом в комментариях!