Традиционная инфраструктура или гиперконвергенция? Ждем ваш вердикт!
Выбор стратегии построения ИТ-инфраструктуры — стратегическое решение, которое может определить уровень устойчивости бизнеса на годы вперед.
В новой статье подробно разобрали плюсы и минусы обоих подходов — традиционного и гиперконвергентного — с фокусом на реалии импортозамещения.
Но сейчас нам интересна ваша точка зрения!
Какой подход к построению ИТ-инфраструктуры вы считаете более перспективным для российского бизнеса на ближайшие 3-5 лет? Кому стоит выбрать гиперконвергенцию, кому больше подойдет нестареющая классика, а кому — гибридный подход?
А вы знали, что почти треть компаний не знает, куда уходят их облачные бюджеты? Нет, они, конечно, получают счета и даже по ним платят. Но почему в прошлом месяце было так, а в этом эдак, и кто в этом виноват – не имеют никакого представления.
Естественно, при таком подходе говорить о какой-либо эффективности не приходится. Потому что если одни экономят, а другие забивают на отключение тестовых сред и гоняют MongoDB там, где хватило бы PostgreSQL, толку не будет. Ведь платить-то все равно из общего котла.
Уровень 1 - тот самый общий котел, когда выделяется какая-то сумма, и вся она тратится без отслеживания эффективности. На этом уровне прозрачность находится на нуле.
Уровень 2 - расходы распределяются по провайдерам. На этом уровне уже видно, что VK Cloud выставил столько-то, Яндекс Облако столько-то. Но почему – пока непонятно.
Уровень 3 – раскладка по услугам. Compute съедает 60-70%, Storage – 20-30%, трафик – 10-15%. Уже появляется понимание, где самые дорогие компоненты.
Уровень 4 – тегирование ресурсов. Так будет видно, какая команда тратит больше.
Уровень 5 – cost-центры с реальными бюджетами. Showback показывает командам траты без списания денег. Chargeback списывает реальные суммы с реальных бюджетов.
Компании, дошедшие до пятого уровня, экономят 20-30% без потери производительности.
Есть примеры обратного или хотите чем-то поделиться? Станьте голосом комьюнити и делитесь с участниками своими кейсами в сообществе.
Проверьте, как быстро вы справитесь с несложным заданием на логику и математику.
Условие
Компания «Тирекс&Co» очень боялась потерять базу данных с клиентами и закупила для своих задач партию жестких дисков. Теперь раз в день администратор создает копию от каждой актуальной версии БД на любой диск, на котором еще не было бэкапа. То есть каждый день количество копий базы данных увеличивается в два раза. Через неделю они полностью заполнят все жесткие диски.
Задача
За сколько дней заполнятся все свободные жесткие диски, если вместо одной базы данных будет две на разных накопителях?
Делитесь ходом рассуждений и решениями в комментариях. Кстати, подсмотреть их всегда можно в Академии Selectel.
Почему Kyverno и Gatekeeper: рассказываем об инструментах, сравниваем их и решаем, какой удобнее 🔐
Задумываетесь, что лучше выбрать для управления политиками в Kubernetes — Kyverno или Gatekeeper? У нас есть ответ. Приходите на вебинар, где мы поговорим о каждом контроллере, осветим их плюсы и минусы, а еще сценарии, для которых лучше подойдет каждый. Оба инструмента будем разбирать на практике.
О чем расскажем:
что предлагает рынок для управления политиками в Kubernetes;
почему выбираем между Kyverno и Gatekeeper, какие у них сильные и слабые стороны;
под какие задачи лучше подойдет каждый из инструментов, что удобнее в использовании.
Ждем всех, кому интересна безопасность в Kubernetes, в частности DevOps-инженеров, техлидов, директоров по разработке и специалистов по кибербезопасности.
📅 Когда? 13 ноября в 11:00 мск.
📍Где? Онлайн. Зарегистрируйтесь, чтобы обсудить сетевые политики в кубере и задать вопросы экспертам.
FinOps против Excel: кто управляет деньгами в облаке
Классический финконтроль — это история, которая в облаке почти не работает.
На первый взгляд кажется, что финконтроль в облаке работает так же, как и раньше. Таблицы, бюджеты, отчеты, всё под контролем. Но стоит заглянуть глубже, и привычные инструменты начинают давать сбой.
Когда инфраструктура была железной, всё было стабильно. Купили сервер, занесли в бухгалтерию, рассчитали амортизацию, и живи спокойно. Расходы предсказуемы, план сбывается, отчеты сходятся.
А потом пришло облако. Сегодня нагрузка почти нулевая, а завтра конкурента блокируют, и трафик у тебя растет в разы. Автоскейлинг добавляет новые инстансы, счёт за неделю превращается в месячный.
CFO смотрит на это и разводит руками. Финансисты видят цифры, но не понимают, почему всё так скачет.
Проблема не в суммах, а в подходе. Старый финконтроль держится на стабильности, а облако живёт по принципу «всё меняется каждую минуту». Любая мелочь в архитектуре мгновенно отражается в P&L, а привычные отчеты не успевают за скоростью изменений.
Вместо агрегированных сумм — расходы по командам и проектам
Вместо запоздалых реакций — наблюдение в реальном времени.
Это уже даже не про “оптимизацию”, а про банальную прозрачность. Или транспарентность. Называйте как хотите.
Главное – что благодаря этому CFO может видеть деньги не в Excel, а прямо в инфраструктуре, и перестает реагировать на факты, а начинает ими реально управлять.
Тут-то баланс и восстанавливается: разработчики понимают цену своего кода, финансисты — динамику расходов, а бухгалтерия наконец перестает удивляться собственным счетам.
Есть что рассказать? Станьте голосом комьюнити и делитесь с участниками своими кейсами в сообществе.
Октябрь для Рег.облака прошел под знаком развития IT-инфраструктуры и нового признания на рынке. Мы вошли в топ-3 крупнейших PaaS-провайдеров России, выпустили несколько продуктовых обновлений, а также поделились новыми фичами и практическими материалами.
Запустили виртуальные роутеры Добавили к облачной платформе новую функциональность.Теперь в личном кабинете доступен раздел «Сетевая инфраструктура» → «Виртуальные роутеры». В нем можно создавать роутеры и управлять ими без ручной настройки через консоль. Решение помогает создавать изолированные среды для разработки и тестирования, строить гибридные архитектуры и повышать безопасность трафика.
Обновили в облаке свежие версии операционных систем Каталог образов для облачных серверов пополнился актуальными дистрибутивами: Debian 13, AlmaLinux 10, Rocky Linux 10 и обновлённый Ubuntu 24.04 LTS. Все эти образы уже доступны при заказе облачного сервера.
Расширили серверы на AMD EPYC (Raphael) В каталоге bare-metal-серверов появились новые конфигурации на процессорах AMD EPYC (Raphael): 16 ядер, 32 потока, частота до 5,7 ГГц, кэш 128 МБ. Эти серверы обеспечивают высокую производительность на ядро и подходят для задач с интенсивными вычислениями — от AI/ML и Big Data до CI/CD и распределенных баз данных. Получить к ним доступ можно по ссылке.
Подключили темную тему к облачной платформе В личном кабинете Рег.облака теперь доступна темная тема. Чтобы её включить, откройте настройки профиля и выберите оформление «Темное».
Рассказали об особенностях увеличения ресурсов в SaaS-проектах Выпустили совместный кейс с SaaS-разработчиком «Ракета» о развитии IT-инфраструктуры при стремительном росте продукта. Подробно рассмотрели, как перенести инфраструктуру в облако, сократить расходы и повысить стабильность IT-систем.
Поделились практиками работы с 1С в облаке и запланировали новый вебинар Вместе с компанией ООО «Спектр» провели практический вебинар про 1С: УНФ, где поделились реальными примерами использования ERP-системы в облаке. А следующий вебинар пройдет 25 ноября — расскажем о том, как начать работать с Kubernetes, какие задачи он решает и кому будет полезна эта платформа. Тему и ссылку на регистрацию опубликуем в ближайшее время. Следите за новостями в Telegram-канале Рег.облака.
Вошли в список лучших поставщиков PaaS решений Аналитический центр TAdviser выпустил рейтинг крупнейших провайдеров облачных сервисов для бизнеса. Рег.облако вошло в топ-3 по направлению PaaS, а также заняло 10-е место в категории IaaS и 20-е место в SaaS. Для нас это очередное подтверждение, что выбранный курс на развитие облачной платформы и удобных инструментов для бизнеса развивается в лучшую сторону.
На этом мы не останавливаемся. В ноябре продолжим выпускать новые облачные инструменты для IT-разработчиков и бизнеса — следите за нашими обновлениями.
Несколько "каверзных", вопросов для собеседования по Linuх, "подсказанных" практикой
Всем привет!
Наверное, мало кто любит проходить, или проводить собеседования, особенно второе, но, если приходится это делать, хочется что бы вопросы на нем были более “жизненными”, нежели “назовите все ключи команды ls” (сам использую 2-3, “в стрессе” вспомню еще 5-7) и, менее теоретическими, нежели “какими ключом шифруем а каким подписываем сообщение” (обычно эти операции скрыты за интерфейсом и сделать ошибку трудно)
Потому, хочу поделиться подходящими задачками, из своей практики:
Вопрос 1. Объясните вывод на экране, что будет, если повторить команду в третий раз, как избежать такого поведения?
Вопрос 3. Объясните, почему повторный запуск команды приводит к сообщению Permission denied?
debian# tcpdump -niany -w file.dmp not port 22
...
4 packets received by filter
0 packets dropped by kernel
debian# tcpdump -niany -w file.dmp not port 22
...
tcpdump: file.dmp: Permission denied
student@server:~$ su
Password:
server:/home/student# shutdown
bash: shutdown: command not found
Несколько раз встречал такую ошибку на занятиях , что позволяло еще раз рассказать про переменные окружения, команду “su -” и, что лучше вместо нее использовать sudo
Наверное, достаточно задачек из моего субъективного опыта, буду рад, интересным примерам из Вашего, в комментариях, Спасибо!
ITAMday 2025: доклад, новое партнерство и ИТ-квиз с мишками 🐻
Победительница квиза получает главный приз
31 октября в Москве прошла юбилейная X конференция ITAMday 2025 — главное событие для специалистов по управлению ИТ-активами. Там я, как директор продукта «Инферит ИТМен», рассказал
почему одной агрегации данных для получения достоверной базы сведений об ИТ-активах уже недостаточно,
зачем рынку нужен отдельный класс инструментов дискаверинга, способных гибко подстраиваться под любую инфраструктуру.
Главная мысль доклада заключалась в следующем: ITAM, ITSM и SAM без прозрачного слоя дискаверинга — это работа вслепую.
📣 Важным событием на ITAMday 2025 для нас стало технологическое партнерство с Simple One. Теперь будем вместе развивать интеграции для полного контроля ИТ-ландшафта и сохранения мультивендорности. Да, пожали руки прямо на сцене под аплодисменты зала 🙂
А чтобы поделиться не только экспертизой, но и хорошим настроением, мы провели ИТ-квиз. Более 60 участников отвечали на вопросы по ITAM, ITSM и SAM и искали на площадке форума мишек Инферит.
🎁 Всего призы получили 11 победителей:
🥇 — ноутбук INFERIT Mercury 15.6" i5-1334U
🥈 и 🥉 — фирменные рюкзаки для ноутбуков с лого Инферит
📸 отдельный приз за фотоконкурс — фирменное худи с мишкой
🎲 и еще 7 наборов мерча «Инферит ИТМен» среди всех, кто прошел квиз: фирменные шоппер, коффер, набор красочных стикерпаков от Инферит ИТМен и Инферит ОС, брендированные шоколадки для сладкого кофе-брейка.
Надеюсь, остальные участники тоже ушли с хорошим настроением и классными фото 🙂
Спасибо всем, кто участвовал в нашем квизе, и организаторам ITAMday за такое мощное мероприятие! До встречи на ITAMday 2026!
Облачное хранилище работает отлично, пока работает. Но провайдер может закрыться, подписка закончиться, а аккаунт заблокироваться. Что тогда будет с вашими фотками?
Закрытие сервиса
Обычно провайдеры предупреждают о закрытии за месяц-два или три. Это время дается, чтобы вы могли выгрузить всё, что хранилось в облаке. Но общего правила нет.
Parse объявил о закрытии за год, а Everpix – за месяц. Но и в том, и в другом случае пользователям дали возможность выгрузить свои данные. Только после этого архивы удалили физически.
Истечение подписки
У каждого провайдера свои правила хранения после окончания оплаченного периода. iCloud держит данные всего месяц, Dropbox – 2, а Google Drive позволяет загрузить их в течение двух лет.
Часть сервисов блокирует только загрузку новых файлов, оставляя возможность скачать старые. Но после истечения грейс-периода поддержка не восстанавливает ничего.
Есть что рассказать? Станьте голосом комьюнити и делитесь с участниками своими кейсами в сообществе.
Случаи потери данных
Бывает, что данные пропадают случайно. Вероятность такого исхода мала, но не равна нулю. Так, в 2015 году в дата-центр Google в Бельгии молния ударила 4 раза подряд. Пострадало около 0.000001% данных, то есть где-то 10 байт на гигабайт. Тем, кто попал в эту погрешность, конечно, легче не стало. Но цифры показывают, насколько это редкая ситуация.
В целом же, облака остаются более надёжным решением, в отличие от локальных дисков. Главное – оплачивать подписку вовремя.
topalias - утилита для генерации коротких алиасов по истории bash/zsh
На GitHub опубликована открытая утилита для генерации коротких алиасов на основании истории работы в bash или zsh. Утилита анализирует файлы ~/.bash_aliases, ~/.bash_history и ~/.zsh_history с историей выполнения команд в терминале Linux, после чего предлагает короткие аббревиатуры (акронимы) для длинных, долго набираемых и сложно запоминаемых, но часто используемых команд. Также поддерживается вывод статистики по истории работы в командной строке.
Если вы работаете в терминале десятки раз в день, алиасы — это мощный инструмент повышения эффективности. Но с ростом количества проектов и конфигураций .bashrc/.zshrc алиасов становится много: часть дублируется, часть устарела, некоторые перекрывают системные команды. topalias решает три задачи:
дать метрику использования алиасов (какие используются чаще всего);
упростить создание/удаление/пакетное управление алиасами;
находить конфликтные или опасные алиасы и предлагать безопасные альтернативы.
В статье — обзор возможностей, примеры использования, внутренняя архитектура и практические рекомендации для интеграции с bash/zsh/fish.
Ключевые возможности
Сбор статистики использования алиасов на основе shell-history.
Команда top — список наиболее часто используемых алиасов.
Интерактивный режим (TUI) для обзора, включения/выключения и редактирования.
Поддержка bash, zsh и fish.
Экспорт/импорт в виде конфигурационных файлов и git-репозиториев.
Поиск конфликтов (алиас затеняет системную команду) и предупреждения.
Генератор «умных» алиасов: на основе частых цепочек команд предлагает сокращения.
Пакетная миграция между машинами (pack/unpack).
Небольшой daemon/cron для частого обновления статистики (опционально).
Выгоден ли FinOps? Как рассчитать ROI и определить экономию
Выгоден ли FinOps? Безусловно. Но мало осознать это самому. В этом нужно убедить еще и руководство. А прениями сторон тут точно не обойтись. Топы – люди цифр, поэтому им нужны реальные расчеты и гарантии возврата вложенных средств. Значит, необходимы конкретные метрики.
Базовая формула расчет ROI для FinOps стандартна:
Но выгода в облаке — не просто сэкономленные рубли. Сюда входят предотвращенные перерасходы, время инженеров, точность бюджетов. И всё это надо переводить в цифры.
А как? Для этого есть специальные способы расчетов.
Снижение затрат:
Расходы падают на 15-30% без потери производительности. Всего-то и нужно, что отключить забытые dev-серверы, не брать инстансы с запасом и пользоваться скидками.
Cost per Unit (стоимость обслуживания пользователя):
Тут без сюрпризов: растет с нагрузкой — плохо масштабируется. Падает — все ок.
Точность бюджета:
Без FinOps погрешность может достигать 25-30%, а с ним – 5-8%.
Продуктивность:
Автоматизация высвобождает 10-12 часов в неделю. При ставке 3000₽/час — экономия 30-40 тысяч рублей на человека.
Опыт показывает, что FinOps окупается за полгода-год, а экономия продолжает держаться и дальше. Главное — понимать, что это не разовая чистка ресурсов, а постоянный процесс.
Есть что рассказать? Станьте голосом комьюнити и делитесь с остальными своими кейсами в сообществе.
Сегодня мы решили обойтись без банальных страшилок про призраков и ведьм и придумать кое-что более пугающее. Герои наших историй столкнулись с настоящими цифровыми кошмарами — взломом и потерей данных.
Почитайте, чтобы немного пощекотать нервы, а затем пройдите небольшой тест. Благодаря нему сможете оценить, насколько хорошо вы разбираетесь в надежном хранении. Всем, кто не испугается, подарим промокод на 1 000 бонусов в панели Selectel.
Обновление каталога образов: новые версии Linux-дистрибутивов в Рег.облаке
В каталоге предустановленных операционных систем для виртуальных серверов Рег.облака добавили свежие релизы для работы с Linux: Debian 13, AlmaLinux 10, Rocky Linux 10 и Ubuntu 24.04 LTS. Образы уже доступны во всех регионах размещения IT-инфраструктуры, включая регион, соответствующий требованиям ФЗ-152.
Новые дистрибутивы включают актуальные исправления безопасности, улучшения производительности и поддержку современного оборудования. А значит пользователям будет доступна более стабильная работа виртуальных серверов, совместимость с актуальными версиями библиотек и фреймворков, а также возможность использовать системы с длительным циклом поддержки.
Наше хранилище S3 недавно попало в топ-5 по функциональности и в топ-3 по поддерживаемым протоколам в рейтинге Cnews среди облачных провайдеров. В общем рейтинге мы на 7-м месте.
Хороший повод рассказать про S3 подробнее.
Хранилище работает на базе Ceph — распределенной системы хранения данных с открытым исходным кодом. Она дает вам полный контроль над данными и позволяет кратно масштабироваться.
Конкретнее о преимуществах:
1️⃣ Тройная репликация — данные хранятся в три копии на разных серверах, чтобы даже в случае отказа одного из них ваши данные были в полной безопасности.
2️⃣ Высокая производительность — для быстрого доступа мы используем горячие пулы на NVMe и холодные пулы на HDD для тех данных, которые вы не будете часто запрашивать.
3️⃣ Управление через стандартный S3 API — чтобы интегрироваться в любые системы, поддерживающие S3, мы используем интерфейс RADOS Gateway (RGW), который транслирует запросы на S3 в язык Ceph и управляет ими через API.
Кстати, спойлер: скоро планируем запускать S3 в Москве.
Самый простой способ сообщить об успешном подключении по SSH
Всем привет! Вообще-то, обычно решают обратную задачу - сообщить о неудачных попытках подключения по SSH, а еще лучше - сразу заблокировать. С этим прекрасно справляет, например, Fail2ban, но, рассказ не о нем. Может оказаться полезно получать уведомления именно об успешных подключениях, особенно, в тот момент, когда сам НЕ подключаешься. Так же, хочется сделать это с наименьшими усилиями, без написания скриптов, без установки специфического ПО, что бы было легко "скопипастить" решение на множество систем. Так же, хочется знать не тoлько о подключениях, получивших shell, но и о удаленном выполнении команд, или копировании файлов по протоколу SSH.
Все есть в этом решении:
$ sudo apt install curl
$ sudo nano /etc/pam.d/sshd
оставьте, все, что было в этом файле и добавьте в конец:
Как оказалось, curl умеет отправлять почту, в сообщении будут присутствовать все подробности, кто, когда, откуда подключился, и, даже, когда отключился. Правда, в этом решении требуется корпоративный почтовый сервер (mailhub.yourcorp.ru в нашем "однострочнике"), готовый принять письмо без аутентификации. Это допустимо, если он же является конечным сервером с ящиком пользователя, или, есть разрешение пересылки писем из корпоративной сети (в этом случае можно использовать любой другой почтовый адрес, вместо yourlogin@yourcorp.ru). Однако, такой сервер не всегда имеется, и решение не годится для персонального использования.
В этом случае, предлагаю Вам вебинар , демонстрирующий решение той же задачи, с отправкой сообщений в Telegram
На этом все, спасибо, буду рад ответить на вопросы!
В SpaceWeb появилась возможность подключать собственные ISO-образы при заказе VPS
В панели управления SpaceWeb появилась новая опция — подключение собственного ISO-образа при заказе или переустановке виртуального сервера.
Раньше ISO-файлы можно было установить только по заявке в техподдержку. Теперь этот процесс полностью автоматизирован и доступен напрямую из интерфейса панели.
Что изменилось
Подключение ISO-образа доступно в трех сценариях:
при заказе VPS на сайте;
при заказе из панели управления;
при переустановке существующего сервера.
Файл образа загружается в панель и используется для установки или восстановления системы. Это особенно удобно при переносе виртуальных машин с других провайдеров — достаточно загрузить ISO, содержащий текущую систему, и развернуть ее на VPS в SpaceWeb.
После установки система, созданная с собственного образа, отображается в панели как «Свой образ» в поле «Программное обеспечение».
Условия использования
Поддерживается загрузка одного ISO-файла размером до 5 ГБ.
Хранение файла — 7 дней, после чего он удаляется автоматически.
Чтобы загрузить новый образ, нужно удалить предыдущий или дождаться истечения срока хранения.
Опция упрощает перенос инфраструктуры с других платформ и позволяет пользователям устанавливать собственные системы без обращения в поддержку.
Учиться на чужих ошибках дешевле, чем на своих. Практики FinOps рассказали, как разбирались с облачными расходами.
FinOps без иллюзий
Игорь Гальцев: FinOps – это не должность и не софт, а процесс. Инженеры, финансисты и менеджмент должны работать вместе, а из инструментов – только теги, распределенное бюджетирование и алерты.
Когда счёт прилетает внезапно
Антон Черноусов из Yandex Cloud запустил проект без лимитов. Как итог – счёт на $2700 за день. Решить проблему помогла настройка бюджетов, алертов и автоматизации.
Практика и культура
Антон Егорушков из Купер (СберМаркет) рассказал, что динамические стенды и скоринг команд напрямую влияют на то, как расходуются бюджеты. Поэтому культуру FinOps строить сразу, иначе потом выйдет дороже.
Простые шаги
Станислав Погоржельский из VK Cloud считает, что экономия приходит как побочный эффект порядка. Добиться этого можно тестированием нагрузки, настройкой лимиты автоскейла и хранением файлов там, где надо.
FinOps в Kubernetes
Алексей Минаев: 70% переплат сидят в Kubernetes, потому что ресурсов выделяют больше, чем используют. В итоге CPU загружен на 13%, память на 20%. Правильные реквесты и автоскейл поднимают утилизацию до нормальных 70%, и переплата исчезает.
SaaS и лицензии
Дитер Мейсон из Roku: FinOps не ограничивается только облаком. FinOps – это в том числе про управление подписками, аномалии в продлениях лицензий и, конечно, расчёт ROI.
Поначалу Купер вообще не применял FinOps в своей работе, но потом привязал теги, CMDB и автоматизацию через Terraform. Результат: 75% расходов распределяются по владельцам, прозрачность и прогнозируемость бюджета.
ST Microelectronics работают с маленькой FinOps-командой, но экономят миллионы. Инженеры сами прогнозируют свои расходы и получают бонусы за точность прогнозов. В итоге их экономия – 30% без ущерба для SLA.
Transport for NSW безуспешно боролись с зомби-ресурсами и ручными выгрузками. А потом запустили FinOps-дашборды и детектор аномалий. Как результат – расходы на Data Lake упали на 22%.
inQdo Cloud считали все расходы в Excel. Но когда внедрили FinOps-платформу, автоматизировали биллинг и нашли утечки бюджета, ситуация изменилась. Аналитику они сделали платной услугой для клиентов — и FinOps начал зарабатывать сам на себя.
Еще мы разобрали кейсы Qventus, Sportradar, Лемана Тех и NinjaCat. Проблемы у всех похожие, а решения разные: кто-то внедрил chargeback, кто-то показал разрабам цену запроса, а кто-то просто настроил автовыключение неиспользуемых ресурсов. Но все остались в плюсе.
Есть что рассказать? Залетайте в наше сообщество в Telegram и поделитесь своей историей с единомышленниками.