Все потоки
Поиск
Написать публикацию
Обновить
101.57

Серверная оптимизация *

Разгружаем сервер

Сначала показывать
Порог рейтинга

+10% к производительности сервера с конфигурацией AR45-NVMe 

Нужна высокая производительность на одном узле, но серверная платформа не по бюджету и избыточна? AR45-NVMe — готовый сервер с передовым десктопным CPU, локальной сетью и быстрыми NVMe-дисками. Решение спроектировано именно для таких задач. Предложение ограничено, успейте заказать сервер по ссылке —>

Характеристики:

  • CPU: AMD RyzenTM 9 9950X, 16 ядер, до 4.3 ГГц;

  • RAM: 192 ГБ DDR5 (non-ECC);

  • Диск: 2×2000 ГБ SSD NVMe M.2;

  • Сеть и сервис: 1 Гбит/с приватная сеть, безлимитный трафик, SLA 99.8%,защита от DDoS, 24/7 поддержка, 3 часа на замену комплектующих.

Из чего состоит прирост производительности +10%

Высокая частота сокращает задержки в задачах, где важна оперативность: сборки, компиляции, отладки и CI-прогоны реагируют быстрее, потому что ядра решают мелкие задачи быстрее.

Больше RAM значит реже подкачка на диск, меньше простоев из-за swapping и стабильнее in-memory вычисления при аналитике и прототипировании ML.

Низкая задержка и высокая пропускная способность, плюс рост числа операций ввода-вывода в секунду (IOPS). Они ускоряют доступ к временным файлам, БД и scratch-пространству. Которые при хранении в сетевом сторадже тормозят работу.

Теги:
+13
Комментарии2

GPU H200 в новой конфигурации выделенных серверов уже в Selectel


NVIDIA H200 — одна из самых мощных видеокарт для задач искусственного интеллекта с 141 ГБ памяти. В новой конфигурации — восемь GPU в формате SXM. Карты могут обмениваться данными на скорости до 4,8 Тбайт/сек. Поэтому конфигурация точно подходит для машинного обучения и инференса LLM.

Практическое применение:

  1. Можно загружать большие параметры и контексты без постоянного свопа на диск — 141 ГБ vRAM в каждой карте позволяют работать с моделями и батчами, которые раньше требовали шардинга. 

  2. Высокая пропускная способность памяти (4.8 ТБ/с) ускоряет подачу данных в тензорные ядра для быстрого обучения и инференса больших языковых моделей и повышения скорости обработки токенов.

  3. NVLink и SXM-формат минимизируют накладные расходы на обмен между GPU, что критично для крупных распределенных пайплайнов. 

Selectel уже предлагает конфигурации с современными GPU и серверными платформами и готов собирать выделенные решения под H200-платформы. Берите в аренду 8×H200 в проверенной инфраструктуре вместо покупки и обслуживания собственного кластера.


Закажите конфигурацию с H200 в Selectel по ссылке  

Теги:
+12
Комментарии1

«Почта Банк» перевел критическую инфраструктуру на zVirt

«Почта Банк» заместил решение вендора VMware, мигрировав ИТ-инфраструктуру, в том числе критический контур, на платформу zVirt. Решение Orion soft обеспечило компании быструю миграцию более 2000 виртуальных машин.

«Почта Банк» — один из крупнейших банков России с государственным участием. Компания ответственно выполняет поручения регуляторов, связанные с импортозамещением ПО для ИТ-инфраструктуры, в том числе КИИ. Для проекта по импортозамещению виртуализации специалисты банка разработали чек-лист из более чем 20 критериев, которым должно было соответствовать российское решение.

Наиболее критичным для «Почта Банка» было наличие функциональности для гибкого управления ресурсами кластера, аварийного перезапуска виртуальных машин, кластеризации, управления доменами хранения. 

Помимо этого банку было важно наличие функциональности для резервного копирования и восстановления виртуальных машин, а также возможность интеграции механизмов бэкапа с используемой в компании СРК. Также специалисты компании оценили zVirt  с точки зрения удобства администрирования.

На сегодняшний день внедрение zVirt  в «Почта Банке» завершено. Общий объем инсталляции достигает 80 хостов, идет активное тиражирование решения. Решение от Orion soft является единственным решением по виртуализации в критическом контуре компании.

«Среди функциональности zVirt особенно актуальным для нас оказался мигратор с VMware. В нашем случае речь идет о тысячах виртуальных машин, и на механическую работу по их пересозданию мы потратили бы слишком много ресурсов. Кроме того, у нас были достаточно жесткие требования к техподдержке, к наличию SLA. Коллеги из Orion soft оправдали наши ожидания — они оперативно подключаются к задачам и помогают решать даже те вопросы, которые находятся на стыке виртуализации и других систем», — комментирует Михаил Комстачев, директор по инфраструктуре и поддержке ИТ-сервисов «Почта Банка».

Теги:
Всего голосов 4: ↑2 и ↓20
Комментарии0

CSI-драйвер и Swordfish API: как заставить Kubernetes дружить с любым хранилищем

В современных enterprise-средах важно обеспечить стандартизированный доступ к системам хранения данных (СХД) от разных производителей, избегая жесткой привязки к конкретному вендору. Одним из решений этой задачи является использование CSI-драйвера, который взаимодействует с Swordfish API. Такая интеграция позволяет Kubernetes автоматически создавать, подключать и удалять тома, избавляя команды от множества ручных операций.

Процесс выглядит так: когда приложение в Kubernetes запрашивает постоянное хранилище, оркестратор формирует PersistentVolumeClaim (PVC) с нужными параметрами — размером, типом и характеристиками. Kubernetes определяет, что создание тома должно выполняться через CSI-драйвер, и передает запрос в эмулятор Swordfish API. Тот создает том, а в случае работы с файловыми системами (например, NFS) дополнительно настраивает подключение к серверу и возвращает CSI-драйверу сведения о готовом ресурсе.

Автоматизированное создание и управление томами в Kubernetes через CSI-драйвер и Swordfish API
Автоматизированное создание и управление томами в Kubernetes через CSI-драйвер и Swordfish API

Дальше Kubernetes связывает созданный том с заявкой PVC, после чего CSI-драйвер монтирует его на рабочий узел к нужному контейнеру или поду. Эмулятор Swordfish API при этом добавляет путь к каталогу в конфигурацию NFS (/etc/exports), что позволяет клиентам подключаться к сетевому хранилищу.

Когда хранилище больше не нужно:

  • DevOps удаляет PVC.

  • Kubernetes вызывает NodeUnpublishVolume для размонтирования тома с узла.

  • CSI-драйвер передает команду Swordfish API.

  • API удаляет том и освобождает ресурсы (в случае NFS — удаляет запись из /etc/exports и каталог).

  • Kubernetes удаляет объект PV, завершая процесс.

Главное преимущество этого подхода в том, что он автоматизирует полный цикл работы с томами — от создания до удаления — и при этом одинаково хорошо работает с разными типами СХД, обеспечивая гибкость и снижение операционных затрат.

Если интересно, как самостоятельно разработать CSI-драйвер с поддержкой Swordfish API и запустить его даже без реального оборудования, то об этом — в статье, где пошагово показано, как реализовать и протестировать решение.

Теги:
Всего голосов 4: ↑4 и ↓0+4
Комментарии0

В развитие темы Bare Metal VM, над которой я время от времени размышляю начиная аж с 2010 года, предлагаю ознакомиться с интересным и, на мой взгляд, перспективным проектом OSv.

Ещё в 10-м году я подумывал над тем, что имея сервера приложений наподобие Томката и серьёзную взрослую изоляцию на уровне загрузчика классов - можно выкинуть подлежащую ОС со всеми её ненужными сервисами из нашего стека, оставив сервер приложений на голом железе. Тогда же выяснилось, что не я один так думаю, было коммерческое предложение Oracle JRockitVE. Судя по всему, наследница вот этого приобретения Bea.

Ранее я уже писал статью об этой идее на Хабре и пытался защищать в дискуссии.

Можно попробовать снова.

Ещё можно смотреть на развитие ОС на базе грааля. Или вспомнить про JaOS.

К современным ОС типа Линукса у меня есть много претензий, и есть несколько идей, которые можно было бы реализовать для их улучшения. Некоторые из них описаны в указанном проекте. Некоторые в том или ином виде наличествуют в специализированных коммерческих предложениях (Юникс) крупных вендоров типа АйбиЭм или того же Оракла. Это касается, например,

  • файлово-дискового стека,

  • оптимизации сети,

  • использования ГПУ в неожиданных местах,

  • гибкости в использовании СУБД при разработке с контейнером.

Теги:
Всего голосов 2: ↑2 и ↓0+5
Комментарии6

Чемпионат мира по метанию серверов на фестивале CloudFest-2025

CloudFest – ежегодный фестиваль интернет-индустрии и облачных вычислений, прошедший в Германии с 17 по 20 марта 2025 года и привлекший почти 9 тысяч посетителей. Мероприятие традиционно проводится в Европе-Парке в Шварцвальде и имеет достаточно насыщенную программу: 250 выступающих от 150 компаний-участников из 80 стран. Доклады, мастер-классы, новинки от гигантов индустрии, стартапы и проч. … но, по понятным причинам шоу-стоппером и гвоздем фестиваля стал чемпионат по метанию серверов – World Server Throwing Championship (WSTC). 

Метались серверы высотой 1U весом примерно 10 кг. (Говорят, можно даже было приносить свои серверы, но это не точно). Здесь всё как в большом спорте – громкие прозвища, например, Бартош-Зверь, Дирк-Машина, чемпионские пояса, анонсеры, чирлидерши и проч. 

В конкурсе принимали участие как мужчины, так и женщины – единственное требование к участникам – надеть перчатки дабы не поранить руки о края девайса и желание метать сервер %&#* далеко (орфография сохранена). 

Накануне основного дня соревнований устраивались отборочные туры, где у каждого метателя было по две попытки, из которых фиксировался самый дальний бросок. Затем три лучших финалиста вышли в финал и соревновались с победителями испанских и голландских квалификаций, а также с прошлогодними чемпионами. 

Приводим ссылку на страницу соревнования и пару роликов:

Официальный ролик дополняет любительское видео.

Устроители шутят (или нет?) и поговаривают, что в будущем следует ожидать включение этого вида спорта в олимпийскую программу.

Комменты под видео в сети:

 - Надо биатлон устроить: Сначала пишут код, который выполняет какую-то полезную работу на сервере, подключенном только к ИБП. Потом метают ИБП и сервер. Результаты суммируют.

- Никогда не используйте сервер, который не сможете выбросить в окно.

- Там от сервера - одно название. Ни тебе процессора с кулером, ни Хардов, ни РАМы, ни рек-Маунт-китов.

- Честно говоря, это самое приятное мероприятие, которое я когда-либо видел. 

- Линукс знает, как падать. 

- Обычный день сисадмина.

Теги:
Всего голосов 3: ↑3 и ↓0+3
Комментарии1

Orion soft обновляет виртуализацию zVirt: Storage DRS, репликация на уровне СХД YADRO и Huawei, ядро ИСП РАН и другие новые функции

31 марта мы выпустим крупное обновление нашей защищенной платформы виртуализации zVirt.

Версия 4.3 включает инструмент для объединения нескольких доменов хранения в логический кластер (Storage DRS), управление репликацией на уровне СХД YADRO и Huawei, управление сертификатами через интерфейс, отечественное ядро ИСП РАН, Terraform-провайдер и еще 30 улучшений.

Приглашаем 1 апреля в 11:00 по Мск на вебинар о новом релизе, на котором расскажем подробнее о главных нововведениях и поделимся планами на развитие продукта.

Регистрация открыта по ссылке.

Теги:
Всего голосов 11: ↑11 и ↓0+11
Комментарии0

Какие темы можно послушать на конференции GoCloud 2025? ☁️

Трек: Инфраструктура и сервисы — про новые и популярные инструменты платформы Cloud.ru Evolution и то, как они помогают в решении задач.

Тема: Увеличиваем дисковое пространство физического сервера за 1 минуту.

На выступлении вы узнаете:

- про возможные риски потери данных и способы их предотвращения;

- как подключить блочные хранилища к железным серверам;

- про эффективный подход к защите данных и его применение.

📅 Когда: 10 апреля в 16:30 мск

👉 Зарегистрироваться

Что еще интересного будет на GoCloud 2025, смотрите в программе конференции.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Через час подключайтесь к вебинару о сетевых дисках для выделенных серверов

В 12:00 мск начнем вебинар «Как работать с сетевыми дисками для выделенных серверов». Поговорим о новой фиче выделенных серверов Selectel — сетевых дисках. Обсудим ее с двух точек зрения — технической и продуктовой, а еще расскажем, как создавать сетевые диски и подключать их к серверам.

Смотреть на YouTube →

Смотреть во ВКонтакте →

Программа вебинара

  • Введение в работу с сетевыми дисками: зачем они нужны и какое развитие ждет этот сервис;

  • Архитектура сетевых дисков и демо подключения диска к хосту или группе хостов.

Кому будет интересно

  • Системным администраторам;

  • DevOps-инженерам;

  • Техлидам.

Спикеры расскажут, как работают сетевые диски для выделенных серверов. Объяснят, как устроена архитектура сервиса, покажут подключение диска к хосту или группе хостов Proxmox, а также пример использования в частной виртуализации. Готовьте вопросы: эксперты обязательно на них ответят в конце вебинара.

Подключиться к трансляции →

Теги:
Всего голосов 4: ↑4 и ↓0+5
Комментарии0

Как мы сокращали количество запросов по фичам в API

Контекст: я отвечаю за разработку конструктора Telegram-приложений. Начинались мы как конструктор кликеров (еще до хомяка). Со временем эволюционировали в конструктор курсов, сообществ, визиток, мероприятий и любых других приложений

Одна из основных сущностей в коде — это BotUser. То есть пользователь, который появился в приложении (зашёл хотя бы раз), имеет имя и Telegram ID

За ~полгода проекта у нас добавилось много фич, привязанных к пользователю. Практически все сопоставляются 1 к 1 по ключу User ID. Например, квизы, бонусные дни, купленные страницы, купленный карточки апгрейдов, тариф и т.д.

Раньше для каждой новой фичи мы добавляли новый запрос в API с фронтенда. И вот мы заметили, что на каждый заход пользователя стало уходить >10 запросов в API ⚠️.

Примерно вот так:

GET /users/user
// Response
{
  "tgUsername": ...,
  "tgId": ...,
  ...
}

GET /users/features/quizzes/completed
// Response
{
  "completedQuizzes": ...,
}
   
GET /users/features/pages/bought
// Response
{
  "boughtPages": ...,
}
   
GET /users/features/rates/rate
// Response
{
  "userRate": ...,
}

При этом, на каждый запрос мы проверяли авторизацию. В Telegram это делается с помощью хеша от Telegram + проверка подписи токеном бота

Следовательно, на каждый запрос мы делали JOIN пользователя, брали бота (сущность Bot) из кэша и мэтчили подпись (+ логгировали). Это лишняя нагрузка

Сейчас подсобрали все фичи в один запрос. Теперь, на каждый заход пользователя получается только один GET /app/account/data, который возвращает данные пользователя вместе с данными фичей:

GET /app/account/data

// Response
{
  ...
  "user": ...,
  "completedQuizzes": ...,
  "boughtPages": ...,
  "currentRate": ...,
  ...
}

За одно перепроверили, что:

  • не подгружаем связанные сущности, где не нужно (one-to-one, one-to-many);

  • если подгружаем сущности, всегда делаем это одним JOIN'ом (а не бегаем по 2-3 раза в БД, как любит делать Hibernate);

  • берём общие часто запрашиваемые данные из кэшей.

Это позволило снизить нагрузку на сервер и БД. К посту прикрепляю график загрузки части наших серверов по CPU до и после оптимизации.

---

Если вам понравился пост или оказался полезным, поставьте, пожалуйста лайк ❤️. Это мотивирует делиться опытом из разработки. И, как полагается, у меня есть Telegram-канал, в котором я рассказываю про разработку, развитие SaaS-сервисов и управление IT проектами.

Теги:
Всего голосов 5: ↑3 и ↓2+1
Комментарии0

Как справиться с 6 500 баз данных 1С?

Администрирование баз данных 1С — задача довольно распространенная. Другое дело, когда в вашей инфраструктуре 6 500 таких баз и 4 000 пользователей. И все это должно быстро и стабильно работать, резервироваться, восстанавливаться и иметь защиту от внешних угроз. С таким запросом в Selectel обратился сервис Альтап.

В кейсе рассказываем, как компания:

  • подобрала оптимальные конфигурации выделенных серверов для 1С и баз данных,

  • обеспечила надежное хранение резервных копий баз данных,

  • защитила сервис от DDoS-атак и других угроз из интернета.

Подробности кейса — в Академии Selectel.

Теги:
Всего голосов 3: ↑3 и ↓0+3
Комментарии0

Как сэкономить на IT-инфраструктуре? Дадим план действий на вебинаре

Привет, Хабр! 29 января в 12:00 проведем вебинар «Cloud или Bare Metal: где лучше запускать кластеры Kubernetes?». Обсудим, как сократить расходы на инфраструктуру до 40%. Присоединяйтесь!

Участвовать →

О чем вебинар

Managed Kubernetes на выделенных серверах позволяет экономить на железе. На практическом вебинаре объясним и покажем, как это сделать. Познакомим вас с самыми популярными и выгодными конфигурациями серверов для развертывания кластеров Kubernetes и поделимся кейсами клиентов, которые уже используют решение.

«Что получится, если совместить мощность и безопасность выделенных серверов с гибкостью Kubernetes? Поговорим про производительность, эффективное управление ресурсами и снижение расходов у клиентов нового продукта Selectel Kubernetes on Bare Metal. До встречи!»

Сергей Ковалёв, спикер вебинара и менеджер выделенных серверов в Selectel

Кому будет особенно полезно?

  • DevOps-инженерам и SRE-инженерам;

  • Разработчикам и руководителям IT-проектов;

  • Системным администраторам и архитекторам;

  • Всем, кто работает с орекстраторами.

Ключевые темы

Managed Kubernetes на Bare Metal

Поговорим о преимуществах использования нового сервиса Selectel. Расскажем, для каких задач он подойдет.

Выделенные серверы, их особенности и преимущества

Раскроем карты и покажем самые популярные и выгодные конфигурации серверов для развертывания кластеров Kubernetes.

Пошаговое создание кластера Managed Kubernetes на выделенных серверах

Покажем весь процесс создания кластера с нуля и ответим на вопросы. Объясним, какие задачи возьмем на себя, а что останется сделать вам.

Задавайте вопросы — спикеры ответят на них в прямом эфире. За лучший вопрос подарим подарок от Selectel!

До встречи 29 января в 12:00.

Регистрация →

Теги:
Всего голосов 7: ↑7 и ↓0+10
Комментарии0

Продолжаем развивать сетевые диски

Добавили виджет визуализации параметров сетевых дисков. Теперь можно увидеть, сколько операций чтения и записи выполняется в секунду, и какая пропускная способность у разных типов дисков — NVMe и HDD. Обязательно зацените 😎

А теперь к цифрам, которые можно получить у нас в облаке:

NVMe. От 10 000 до 30 000 операций чтения в секунду и от 7 000 до 15 000 операций записи. Скачивание на скорости от 200 до 500 мегабайт в секунду, загрузка — от 150 до 300

HDD. В секунду от 150 до 2 000 операций чтения и от 100 до 1 000 записи. Скорость скачивания от 100 до 200 мегабайт в секунду, а загрузки — от 50 до 100

И апдейт для повышения безопасности: теперь можно подтвердить удаление сетевого диска с помощью кода в Телеграме. Для этого перейдите в настройки аккаунта → «Уведомления» → «Безопасность» → клик на соответствующий свитч под словом «Телеграм».

Выбрать тип сетевого диска →

Теги:
Всего голосов 9: ↑9 и ↓0+14
Комментарии0

Ближайшие события

Новая линейка тарифов Dedicated CPU. Её суперсила — в фиксировании процессорных ядер.

Обычные тарифы используют динамическое распределение свободных ядер, что может приводить к задержкам при переключении.

В Dedicated CPU такого нет. Все ядра фиксируются только за вашим сервером, обеспечивая максимальную производительность вычислений.

Стоимость такого ядра — 1 250 рублей в месяц. Под один сервер можно зафиксировать до 32 шт.

Минимальный конфиг — 1 ядро, 4 ГБ оперативки и диск NVMe на 50 ГБ — 2 330 рублей в месяц.

Доступно для облачных серверов в Москве и Санкт-Петербурге.

Заказать сервер с выделенными ядрами → 

Теги:
Всего голосов 6: ↑6 и ↓0+8
Комментарии2

🤒 Оптимизация электропотребления в Linux

Как известно, на линухе работа с питанием хуже, чем на Windows. Особенно это критично для людей с ноутбуком, желающих продлить время жизни от батареи.

Рассмотрим 3 инструмента:

  1. Один из самых популярных — TLP

TLP (The Linux Power Management). Мощный инструмент, много гибких настроек для процессора, дисков, сетевых интерфейсов и т.д. Хорошая документация. TLP работает в фоновом режиме, после настройки все будет работать само. Существует удобный TLPUI, чтобы не менять конфиги руками. Автоматически переходит в режим экономии при подключении зарядки.

+ Много гибких параметров

+ Автоматическое адаптивное управление

+ Разные типы устройств

- Возможно, надо будет доп настраивать для некоторых систем (на моем Lenovo Ideapad например пришлось читать вот это, благо дока хорошая)

- Необходимость обновления (сомнительно)

  1. Самый эффективный — auto-cpufreq

Автоматически управляет частотой процессора исходя из нагрузки и состояния батареи. Якобы сильно эффективнее и лучше TLP. Может работать вместе с ним, хотя и не рекомендуется.

+ Простота использования — достаточно запустить и забыть

+ Интеграция с другими инструментами

+ Постоянное обновление частоты процессора в зависимости от нагрузки

- Может потребовать доп настройки

- Требует админских прав для работы (сомнительно)

  1. От корпорации зла — Power Profiles Daemon (ppd)

Power Profiles Daemon — три режима работы (производительность, сбалансированный, экономия), между которыми можно переключаться. По умолчанию во всех DE именно он находится в виджете "батарея". Сделан Red Hat.

+ Интеграция с системой

+ Поддержка различных профилей питания

+ Легкость использования через графический интерфейс

— Менее гибок, чем перечисленные выше

Я по итогу выбрал auto-cpufreq и tlp (только потому, что ограничивает заряд батареи)
Если вам есть что сказать, с удовольствием пообщаемся в комментах :)

Теги:
Всего голосов 10: ↑10 и ↓0+12
Комментарии1

Добавили в балансировщик новый протокол TCP+TLS — теперь его можно использовать, например, для TURN TLS или gRPC TLS.

И упростили установку Let's Encrypt. Теперь его можно устанавливать и на этапе создания новых балансировщиков, а также на поддомены. А еще А-запись для выбранных доменов теперь обновляется автоматически.

Пора создать балансировщик → 

Теги:
Всего голосов 6: ↑6 и ↓0+8
Комментарии0

Добавили в каждый балансировщик раздел «Серверы». В нем можно отслеживать все, что подключено к балансировке, а также IP-адреса сервисов, статусы доступности и время даунтайма.

Статусы обновляются моментально, но иногда могут быть задержки до 1 минуты.

Также теперь к балансировке можно подключать не только облачные и выделенные серверы, но и базы данных и Backend Apps. А еще балансировщики получили отдельный раздел в левом меню — для большего удобства.

Настроить балансировку → 

Теги:
Всего голосов 10: ↑9 и ↓1+11
Комментарии0

Добавили возможность устанавливать SSL на балансировщики. На выбор: бесплатный Let’s Encrypt с автоустановкой и продлением, или собственный.

Теперь вместо загрузки сертификатов на каждый сервер по отдельности достаточно загрузить один сертификат на балансировщик.

Скоро добавим автоматическую настройку А-записи перед установкой Let's Encrypt, его установку на поддомены и интеграцию с платными SSL.

Поставить SSL на балансировщик → 

Теги:
Всего голосов 8: ↑8 и ↓0+13
Комментарии0

Решите задачу про взвешивание серверов?

Условие

Стойки в дата-центре вмещают четыре одинаковых сервера. Форма, размер и вес серверов совпадают. В ЦОД привезли новую партию из восьми серверов, при этом выяснилось, что один из них весит больше других, хотя выглядит так же. 

Чтобы стойка не сломалась, сотруднику дата-центра Ване нужно определить нестандартную машину и отправить ее обратно поставщику.

Задача

Как с помощью огромных рычажных весов и всего двух взвешиваний определить нестандартный сервер?

Предлагайте варианты решения в комментариях. А проверить себя (или подсмотреть правильный ответ) можно в Академии Selectel.

Теги:
Всего голосов 10: ↑9 и ↓1+13
Комментарии7

Меньше часа остается до начала нашей флагманской конференции Selectel Tech Day 2024 🔥

Онлайн‑зрители, подключайтесь в 10:45 к прямому эфиру из студии. Директор по сопровождению ключевых клиентов Татьяна Свирко и руководитель event‑отдела Мария Бойкова поделятся историей мероприятия и подробнее расскажут о том, что ждет участников Tech Day сегодня. Официальная часть начнется с приветственного слова CEO Selectel Олега Любимова в 11:00. 

Если вы смотрите нас онлайн, обратите внимание: доклады в первом и втором зале пройдут в разных трансляциях. Все ссылки на разные площадки собраны на сайте конференции.

До начала конференции убедитесь, что вы подписаны на Telegram-канал Selectel Tech Day 2024. В нем дополнительно будем анонсировать каждый доклад и собирать под постами вопросы для спикеров. 

Присоединяйтесь, будет интересно ⚡️

Теги:
Всего голосов 6: ↑6 и ↓0+9
Комментарии0
1