Прошли аттестацию высшего уровня защиты данных УЗ-1 🛡
Официально подтвердили максимальный уровень защищенности нашей инфраструктуры.
Теперь вы можете размещать медицинские системы и работать с любыми специальными категориями данных (здоровье, биометрия).
➖ Локации: Москва, Санкт-Петербург, Новосибирск ➖ Защита: аппаратные межсетевые экраны, IDS/IPS, сканирование уязвимостей, контроль целостности среды виртуализации
Подключайтесь к вебинару сегодня в 16:00 мск. Разберем, как эффективно управлять IT-инфраструктурой в 2026 году и почему bare metal снова становится ключевым элементом для стабильности и производительности. Покажем инструменты, которые помогают автоматизировать рутину и ускорять развертывание сервисов.
Энергия бита, вес модели и три режима вычислений в ИИ-системах
Модель вводит три уровня состояния нейросервиса:
– параметры физически существуют;
– система под питанием и готова к запуску;
– идёт сам акт инференса.
Это не теорема, а логическая схема: три булевых предиката E, P, A и связи между ними. Они не претендуют на новизну в физике/математике — это инженерная абстракция, опирающаяся на факт, что записанная информация имеет массу-энергию и требует энергию для обработки.
В рамках принятых определений:
– параметры уничтожены → E_AI = 0;
– питание выключено → P_AI = 0;
– нет запроса → A_AI = 0.
Тонкости вроде квантовых флуктуаций и распределённых вычислений не учитываются: цель — чётко разделить «потенциальное существование» модели и «акт работы».
Три уровня анализа:
1. Физический — энергетическая цена различий (предел Ландауэра, масса информации, рассеяние).
2. Модельный — структура состояний (параметры, питание, вычисление).
3. Интерпретационный — логическое разбиение состояний для анализа вычислительных систем.
Переменные
θ — вектор параметров модели (n-мерный).
ρ_θ(r, t) — эффективное распределение масс-энергии параметров в точке (r, t)(агрегированное распределение в памяти, а не строгое физическое поле).
H — аппаратная среда (память, блок питания, линии связи).
H_on(t) — «железо включено и готово к вычислениям».
x — входные данные; y — выход.
f_θ — функция x → y, реализуемая моделью.
Предикаты состояний
1. Существование (E_AI)
Условие: ∭ ρ_θ(r, t) dV dt > 0
Смысл: параметры физически присутствуют.
Флаг: E_AI = 1, пока носитель цел.
2. Потенциал (P_AI)
Условие: H_on(t) AND E_AI.
Смысл: система под питанием и готова к работе.
Флаг: P_AI = 1, когда питание доступно.
3. Акт инференса (A_AI)
Условие: P_AI(t) AND Input(x, t).
Смысл: вычисление в процессе.
Флаг: A_AI(t) = 1 только во время обработки запроса.
Три режима
1. До входа:
E_AI = 1, P_AI = 1, A_AI = 0 → модель существует, но простаивает.
Кейс: «Жива Технологии» арендует в облаке виртуальные машины с GPU для приложения с AI 🤖💬
👨💻 Что за компания
«Жива Технологии» — разработчик приложения JIVA, ассистента с AI, который помогает вести здоровый образ жизни. В приложении можно составить план, чтобы достичь поставленной цели: рассчитать норму воды, построить график тренировок или поправить технику упражнений.
А еще искусственный интеллект рассчитывает по фото питательность блюда: вес порции, количество калорий, белков, жиров, углеводов, микро- и макро-нутриентов. В результате такого анализа AI-помощник в JIVA советует, что можно заменить или добавить, чтобы прием пищи стал полезнее.
🕵️ Какая была задача
Искусственный интеллект внутри JIVA — это AI-модели для распознавания нутриентов по фото, встроенный AI-ассистент на базе LLM и каскад моделей по детекции и распознаванию физических упражнений. Все модели разработчик собрал на open source.
Клиенту были нужны видеокарты с GPU для инференса и обучения этих моделей. Закупать свои графические процессоры оказалось невыгодно, и он решил арендовать их в облаке. «Жива Технологии» хотел использовать виртуалки с GPU и другие облачные сервисы, чтобы мониторить работу моделей и управлять ресурсами в одном месте.
📈 Результат
Клиент использовал набор сервисов Cloud.ru, чтобы развернуть в облаке бэкенд приложения, тестовую и продовую среду и сами модели:
Развернул бэкенд и модель для подбора упражнений на пяти ВМ платформы Cloud.ru Advanced. Там же подключил сервисы для мониторинга, логирования и работы с базами данных.
Тестовую среду развернул на виртуальных машинах Evolution Compute c GPU с гарантированной долей vCPU 30% 8vCPU 16GB RAM. Для тестирования взял одну GPU-карту A100 — она позволяет экспериментировать при обучении и тестировании LLM.
Для продовой среды выбрал виртуалки с такими параметрами: 20 vCPU 117 GB RAM 1 × A100 NVIDIA 80 GB.
🚀 Что дальше
В планах «Жива Технологии» — ускорить распознавание нутриентов по фото с 8–9 до 2–3 секунд, не арендуя при этом дополнительные GPU. У Cloud.ru есть сервисы, которые помогают в инференсе моделей, их дообучении и не только. Например, для запуска и развертывания ML-моделей предложили клиенту протестировать сервис Evolution ML Inference.
Материал получился довольно подробным — в нем разобран текущий функционал ИТМен, архитектурный подход, основные модули и сценарии использования.
Что внутри обзора:
краткий разбор ключевых возможностей системы;
акцент на практическое применение в компаниях разного масштаба;
разъяснение, чем мы отличаемся иных решений;
обзор моделей данных, инвентаризации и подхода к каталогу активов.
Для тех, кто интересуется инструментами контроля над ИТ-активами, материал может быть полезным как структурированная точка входа, особенно если вы сравниваете решения или рассматриваете внедрение в 2026 году.
Спасибо коллегам за такой подробный обзор, для нас ценно, что ИТМен полезен, и мы рады делиться инсайтами, скринами, кейсами, в том числе в нашем блоге Хабра.
Буду рад обратной связи и вопросам в комментариях!
Как перейти от пилотов к рабочим решениям, если вы работаете над ML-проектом в MedTech?
Не пропустите ответ на митапе Pitch the Future.Med AI. Ровно через час, в 19:00, начнем трансляцию докладов для ML-команд в медицине. Программа будет насыщенной: разберем три кейса, проведем дискуссию и завершим мероприятие питчем ML-проектов.
♦️ Три кейса из MedTech. Вы узнаете, как пройти путь от пилота к внедрению, как включать новое решение в процессы клиники и как развивать AI-решение.
♦️ Дискуссия «Как драйвить инновации в медицине». Проведем диалог зала со спикерами о том, что реально влияет на развитие AI/ML-проектов.
🔥 Гвоздь программы — питч ML-проектов. Его участники получат экспертную оценку от специалистов, рекомендации по развитию проекта и возможность задать вопросы профессиональному сообществу и жюри.
Получить максимум от виртуализации zVirt: микросегментация
11 декабря в 11:00 мы продолжим серию технологических вебинаров о возможностях программно-определяемых сетей zVirt. На второй встрече расскажем о микросегментации — самой популярной технологии SDN и, по мнению многих заказчиков, самой полезной.
Начнем с разбора принципов работы, требований и ограничений, а дальше рассмотрим основные принципы дизайна правил безопасности и возможности интеграции и отладки.
Что будет на вебинаре?
- Микросегментация как технологическое решение
- Требования и ограничения микросегментации
- Группы безопасности
- Правила безопасности
- Отладочные механизмы микросегментации
Присоединяйтесь, чтобы сделать ваш ИТ-ландшафт гибким, масштабируемым и готовым к вызовам завтрашнего дня!
Контейнеры, архитектурные и технические компромиссы и другие вопросы
Обсудим на Selectel Admin MeetUp ровно через час. Стартуем в 18:30 мск! Не нарушаем традиции и ждем вас на предновогоднем ивенте для сисадминов и девопсов. У нас нет строгой программы — ответим на все вопросы, которые волнуют коллег по цеху.
♦️ Как не сломать деплой вашего Cloud Native приложения
Спикер: Вадим Кульманов, старший инженер по качеству, Positive Technologies
Узнайте, как автотесты установки продукта в Kubernetes превращают хаос в предсказуемость. На реальных примерах покажем, как избежать хотфиксов, сократить время на регрессионное тестирование релиза и дать пользователям разворачивать продукт с уверенностью даже в legacy-окружении.
♦️ Сетевые диски для выделенных серверов: Ceph, iSCSI и автоматизация без боли
Спикер: Владимир Иванов, системный администратор, Selectel
В рамках концепции Bare Metal Cloud мы в команде Dedicated столкнулись с задачей: как дать клиентам выделенных серверов возможность использовать отказоустойчивое облачное хранилище как сервис без лишней магии. Расскажу, как мы построили инфраструктуру сетевых дисков на базе Ceph и iSCSI Gateway, на какие архитектурные и технические компромиссы пошли, как масштабируем сервис и какие подводные камни нам встретились.
PostgreSQL на 4 ТБ, Patroni на две столицы и 16 000 фур в реалтайме: как мы «перевозили» CARGO.RUN
Привет, Хабр! Представьте ситуацию: один логист управляет 80 машинами одновременно. Маршруты, топливо, простои — все в реальном времени. Остановись сервер — бизнес сразу теряет деньги, а на перевозчиков сваливается хаос.
Именно таков мир, в котором работает команда CARGO.RUN — SaaS-платформа, которая автоматизирует грузоперевозки для топ-игроков рынка. Мы подготовили кейс о том, как помогли CARGO.RUN мигрировать к нам в Selectel. Внутри — настоящий технический детектив и архитектурный дзен.
Базы данных — почему для PostgreSQL с расширениями PostGIS и Timescale (а это 4 ТБ «горячих» данных!) выбрали именно выделенные серверы, а не облако.
Отказоустойчивость — как развернули кластер Patroni, физически разнесенный между дата-центрами в Москве и Санкт-Петербурге, чтобы пережить падение целого региона.
Оркестрация — переход от Docker Swarm к Managed Kubernetes для микросервисов, когда в штате всего три DevOps-инженера.
IaC — как Terraform и GitOps помогли навести порядок и сделать инфраструктуру прозрачной.
Результат миграции — рост производительности логистов в 2,5 раза и сокращение порожнего пробега фур на 53%.
Приходите на вебинар, чтобы узнать об обновлениях в партнерской экосистеме Cloud.ru
relieved face
Наши эксперты расскажут, что мы пересмотрели в нашей классической модели и на чем делаем акцент, чтобы создавать с партнерами сложные и интересные проекты.
Обсудим:
в чем суть обновленного формата сотрудничества;
какие инструменты и механики используем, чтобы запускать проекты быстрее;
варианты, как участвовать в партнерской программе;
как выстроена система мотивации и вознаграждений;
как оказываем системную поддержку, от пресейла до совместного продвижения.
Ждем CEO и C-Level, руководителей развития бизнеса, тимлидов, архитекторов, продакт-менеджеров и всех, кто ищет точки роста, отвечает за технологии и развитие направлений.
Через 25 минут на вебинаре «Внутри S3». Мы создаем масштабируемые, отказоустойчивые и быстрые S3-хранилища: ледяные, холодные, горячие и стандартные. Познакомим вас с устройством сервиса под капотом и разберем, как используют S3 компании из разных сфер. Присоединяйтесь!
Вебинар про мониторинг в Deckhouse Kubernetes Platform: от архитектуры до расследования инцидентов
В эту пятницу, 28 ноября в 12:00, разберём мониторинг в DKP на реальных кейсах.
Внутри вебинара:
концепции мониторинга DKP и чем они отличаются от стандартных подходов;
как мультитенантность и веб-интерфейс делают работу проще;
практические примеры расследования и локализации инцидентов с готовыми инструментами.
Спикер — Владимир Гурьянов, технический директор продуктового направления Observability.
Регистрируйтесь и подключайтесь к эфиру. Будет интересно тем, кто уже использует DKP или только присматривается к ней. Покажем, что платформа умеет больше, чем вы думаете. Особенно в части мониторинга.
Получите лицензию VMmanager по цене техподдержки и экспертную миграцию за наш счет!
В чем суть?
Вы переезжаете с российской платформы виртуализации на VMmanager. Мы предоставляем вам лицензию VMmanager по цене технической поддержки сроком до 12 месяцев на ваше количество хостов!
Также вы получаете:
экспертное сопровождение специалистами ISPsystem процесса миграции;
в качестве бонуса — лицензию BILLmanager Enterprise на 12 месяцев без доплаты для единого управления VMmanager и другими системами виртуализации.
Готовы обсудить переезд? Ознакомьтесь с подробными условиями и оставьте заявку на участие на нашем сайте.
Вендинговый оператор перенес mission-critical инфраструктуру в облако Cloud.ru и настроил резервное копирование базы данных 💽
👨💻 Что за компания
UVENCO — крупнейший оператор вендинговых автоматов бренда UNICUM в России, обслуживает 20 000 торговых аппаратов, включая микромаркеты и кофе-поинты, в 65 городах страны.
Все автоматы оборудованы системой онлайн-телеметрии, которая помогает удаленно мониторить их работу, планировать маршрут и график обслуживания, контролировать продажи и остатки товаров. Так оператор в режиме реального времени видит состояние всего парка оборудования и может обеспечить одинаково высокое обслуживание во всех городах, где стоит вендинг UVENCO.
🕵️ Какая была задача
Система онлайн-телеметрии на 20 000 автоматов — это тысячи транзакций в секунду, постоянные записи в базы данных и высокая чувствительность к задержкам. Для UVENCO это mission-critical система: любая деградация ядра телеметрии отразится на продажах и сервисе по всей стране.
Ранее телеметрия работала на локальных серверах. Но для требуемого SLA пришлось бы резервировать вычислительные кластеры, систему хранения данных (СХД), сеть и питание — это дорого и сложно в сопровождении. Масштабирование под ввод новых автоматов тормозилось бы капитальными затратами.
👨🔧 Как ее решили
IT-специалисты UVENCO развернули виртуальные машины и перенесли сервисы телеметрии на платформу Облако VMware. Миграция выполнялась средствами VCDA без изменения архитектуры приложений. После оценки производительности инженеры Cloud.ru предложили перейти на выделенный хост, чтобы исключить шум соседей и закрепить ресурсы только за UVENCO.
📈 Что в результате
Телеметрия работает стабильно, БД регулярно и корректно резервируется. Переезд снял риск простоев и дал UVENCO возможность оперативно масштабироваться под рост нагрузки.
Как масштабироваться в Kubernetes автоматически и экономически выгодно? Расскажем через 15 минут
Подключайтесь к вебинару сегодня в 16:00 мск. Покажем, как Karpenter в кластерах Managed Kubernetes помогает оптимизировать затраты на инфраструктуру, и объясним, как использовать этот инструмент. Присоединяйтесь!
В программе:
✔️ Обзор возможностей Karpenter и его сравнение с Cluster Autoscaler;
✔️ Воркшоп по настройке решения в кластерах Managed Kubernetes;
✔️ Кейсы применения Karpenter. Оптимизация GPU-инфраструктуры с сервисом.
В конце ответим на вопросы — задавайте их в форме регистрации. На вебинаре особенно полезно будет DevOps-инженерам, техлидам и СТО, системным администраторам и архитекторам.
Termit с нуля: как развернуть и настроить платформу виртуализации рабочих столов и приложений
Привет, Хабр! Мы не раз отмечали, что одна из ключевых особенностей нашей платформы VDI и терминального доступа Termit — простота запуска. 27 ноября мы проведем live-tutorial о старте работы с Termit, где покажем пошаговый процесс развертывания платформы.
Вместо нескольких часов изучения документации вы сможете посмотреть один вебинар, на котором системный инженер Orion soft в прямом эфире проведет ручное и автоматизированное развертывание платформы виртуализации рабочих столов (VDI) и приложений.
На вебинаре:
Покажем пошаговый «рецепт» развертывания и настройки Termit за 30 минут
Поделимся техническими лайфхаками
Ответим на вопросы о начале работы с Termit
Только у участников вебинара будет возможность получить специальный CookBook с подробной инструкцией по развертыванию Termit, а также шаблоны для автоматического развертывания.