All streams
Search
Write a publication
Pull to refresh
96
337.4
Матвей Чернов @techno_mot

Немного инженер, немного тех. писатель

Send message

+10% к производительности сервера с конфигурацией AR45-NVMe 

Нужна высокая производительность на одном узле, но серверная платформа не по бюджету и избыточна? AR45-NVMe — готовый сервер с передовым десктопным CPU, локальной сетью и быстрыми NVMe-дисками. Решение спроектировано именно для таких задач. Предложение ограничено, успейте заказать сервер по ссылке —>

Характеристики:

  • CPU: AMD RyzenTM 9 9950X, 16 ядер, до 4.3 ГГц;

  • RAM: 192 ГБ DDR5 (non-ECC);

  • Диск: 2×2000 ГБ SSD NVMe M.2;

  • Сеть и сервис: 1 Гбит/с приватная сеть, безлимитный трафик, SLA 99.8%,защита от DDoS, 24/7 поддержка, 3 часа на замену комплектующих.

Из чего состоит прирост производительности +10%

Высокая частота сокращает задержки в задачах, где важна оперативность: сборки, компиляции, отладки и CI-прогоны реагируют быстрее, потому что ядра решают мелкие задачи быстрее.

Больше RAM значит реже подкачка на диск, меньше простоев из-за swapping и стабильнее in-memory вычисления при аналитике и прототипировании ML.

Низкая задержка и высокая пропускная способность, плюс рост числа операций ввода-вывода в секунду (IOPS). Они ускоряют доступ к временным файлам, БД и scratch-пространству. Которые при хранении в сетевом сторадже тормозят работу.

Tags:
+13
Comments2

GPU H200 в новой конфигурации выделенных серверов уже в Selectel


NVIDIA H200 — одна из самых мощных видеокарт для задач искусственного интеллекта с 141 ГБ памяти. В новой конфигурации — восемь GPU в формате SXM. Карты могут обмениваться данными на скорости до 4,8 Тбайт/сек. Поэтому конфигурация точно подходит для машинного обучения и инференса LLM.

Практическое применение:

  1. Можно загружать большие параметры и контексты без постоянного свопа на диск — 141 ГБ vRAM в каждой карте позволяют работать с моделями и батчами, которые раньше требовали шардинга. 

  2. Высокая пропускная способность памяти (4.8 ТБ/с) ускоряет подачу данных в тензорные ядра для быстрого обучения и инференса больших языковых моделей и повышения скорости обработки токенов.

  3. NVLink и SXM-формат минимизируют накладные расходы на обмен между GPU, что критично для крупных распределенных пайплайнов. 

Selectel уже предлагает конфигурации с современными GPU и серверными платформами и готов собирать выделенные решения под H200-платформы. Берите в аренду 8×H200 в проверенной инфраструктуре вместо покупки и обслуживания собственного кластера.


Закажите конфигурацию с H200 в Selectel по ссылке  

Tags:
+12
Comments1

Как связать пару тысяч ИП и маркет?

Представьте, что ваш бизнес обслуживает более 2 000 продавцов, интегрированных с крупнейшими маркетплейсами. Каждый день поступает множество запросов, и важно обеспечить стабильную работу платформы при высокой нагрузке. Как сделать так, чтобы система оставалась надежной и безопасной, а данные не терялись? 

Рассказываем на примере кейса XWAY. Переходите в Академию Selectel чтобы узнать, как компания:

  • Построила гибридную и отказоустойчивую инфраструктуру с обработкой 1 000 запросов в секунду.

  • Использует облачные серверы, Managed Kubernetes и выделенные серверы от Selectel для обеспечения высокой производительности.

  • Обеспечивает быструю и надежную сетевую связность при уровне SLA 99,98%

  • Автоматизировала управление инфраструктурой, снизив зависимость от сторонних специалистов.

Tags:
Total votes 4: ↑4 and ↓0+5
Comments0

Начинаем вебинар по повышению производительности инфраструктуры

Привет, Хабр! В 12:00 по МСК проведем вебинар, где разберем, как эффективно использовать GPU в облаке для ML-проектов. Продакт-менеджер облачной платформы Selectel Антон Баранов расскажет, как оптимизировать производительность инфраструктуры и сократить расходы без потери качества. Присоединяйтесь!

Смотреть трансляцию:

на YouTube

в VK

Программа вебинара

  • Шесть способов сократить расходы на IT-инфраструктуру с GPU

  • Подбираем GPU под конкретную задачу. Разбор кейсов клиентов

  • Облако с GPU: обзор возможностей облачной платформы и доступных GPU-карт

  • Как выбрать подходящие карты в облаке и в MKS

  • Сокращаем сетевые задержки с помощью локальных SSD NVMe-дисков в облаке с GPU

  • Ответы на ваши вопросы

Кому будет полезно 

  • Техлидам и менеджерам ML-проектов: как выбрать оптимальную инфраструктуру.

  • Data-инженерам, MLOps-инженерам, DevOps-инженерам

  • Всем, кто работает с облачными ресурсами и хочет повысить ROI проектов.

Tags:
Total votes 3: ↑3 and ↓0+5
Comments0

Information

Rating
5-th
Location
Санкт-Петербург, Санкт-Петербург и область, Россия
Works in
Date of birth
Registered
Activity

Specialization

Technical Writer