Pull to refresh
0
Galtsystems (ex. Сквадра Груп)
Поставка надёжных б/у и новых серверов

Новый возможный лидер среди ведущих облачных провайдеров — Penguin

Reading time5 min
Views2.3K
Original author: John Russell

Конкурентная борьба с крупными поставщиками облачных HPC-решений, такими, как AWS, Azure и т.д., для игроков поменьше – серьезный вызов. Гиганты отрасли уже сформировали общественное мнение в свою пользу. Но недавно специализирующаяся на HPC компания Penguin Computing повторила бенчмаркетинговое исследование своих старших собратьев и утверждает, что результаты показали, что их публичное облако Penguin on Demand (POD) входит в число лидеров по стоимости и производительности. Естественно, тот факт, что тесты проводил сам поставщик услуги, настораживает. Однако компания заявляет, что тесты в точности воспроизводят те, что были освещены в вышеупомянутом исследовании, и что они готовы предоставить третьим лицам возможность бесплатно самостоятельно повторить их.




Маркетинговый прием? Само собой. Исследование The Penguin стало ответом на статью «Сравнительное исследование вендоров облачных вычислений с высокой производительностью Linpack» за авторством Exabyte.io и размещенной на arXiv.org пару месяцев назад. Но Penguin не просто пытается привлечь внимание пользователей и вклиниться между гигантами Microsoft, Google, AWS, IBM/SoftLayer и Rackspace, чьи предложения были отражены в статье. Penguin также демонстрирует все возрастающее конкурентное рвение среди многих провайдеров, предлагающих облачные услуги HPC.


В то время как в исследовании Microsoft Azure были лучшими среди HPC-провайдеров, в исследовании Penguin отмечается, что Azure потерял ведущие позиции, в то время как POD вырвался вперед как по цене, так и по показателям производительности. А сам Penguin при этом занял лидирующие позиции по количеству гигафлопсов на ядро и на узел в тестах на основе библиотеки Linpack, а также в показателях ускорения при масштабировании.



В некоторой степени можно было бы ожидать, что Penguin превзойдет соперников, но POD скорее характеризуется как кластер HPC по требованию, а не обычное публичное облако, так как это сильно связанная среда, в которой используется соединение OmniPath 100 Гбит/с. Если опустить некоторые нюансы, главное преимущество POD, если быть точным, это то, что он дешевле, чем услуги основных облачных игроков.


HPCwire уже осветил это (см. Azure Edges AWS в исследовании Linpack Benchmark). Однако там лучшую производительность (в том числе по сравнению с NERSC) показала Azure. Основной целью того исследования было выяснить, может ли рабочая нагрузка HPC-задач запускаться в облачной среде и быть рентабельной? Использование высокопроизводительной библиотеки Linpack как инструмента измерения производительности и сравнения стоимости с традиционной инфраструктурой показало, что однозначно может!


«Мы протестировали производительность наилучшей из доступных вычислительных платформ от провайдеров публичного облака с помощью высокопроизводительной библиотеки Linpack. Мы оптимизировали тест для каждой вычислительной среды и оценили относительную производительность для вычислений распределенной памяти… Выводы таковы: концепция высокопроизводительные облачные вычисления готовы к широкому внедрению, могут обеспечивать жизнеспособную и рентабельную альтернативу капиталоемкому локальному развертыванию оборудования», — пишут авторы Мохаммад Мохаммади и Тимур Бажиров из Exabyte.io.


Penguin, конечно же, хорошо известен за HPC-экспертизу и серверы Tundra. В ноябре у компании было семь систем в Top500. Неудивительно, что предложение POD ориентировано на HPC. «Мы осознаем необходимость высокопроизводительных узлов с современными процессорами, платформами, неблокирующими коммутационными матрицами для инфраструктуры, которую вы сами спроектировали бы, если бы строили у себя дома хорошо масштабируемый HPC-кластер», — говорит Виктор Грегорио, старший вице-президент по облачным вычислениям POD.


POD предоставляет две локации для облачных вычислений, MT1 и MT2, к которым можно получить доступ через единый портал. Каждое местоположение имеет локализованное хранилище и высокоскоростное соединение между сайтами для обеспечения легкой миграции данных от одного местоположения к другому.


Узлы входа и тома хранения расположены в каждой локации, но регистрационные данные являются общими для всех локаций POD, как и отчеты об использовании портала.



Тестирование проводилось в центре данных MT2 на узлах B30 на процессорах Intel Broadwell E5-2680 v4 (2.4 ГГц, 14 ядер, 16 циклов с двойной точностью), предоставляющих максимум 1.07 терафлопс на узел. В местоположении MT2 используется соединение Intel OmniPath. Другие облака в этом исследовании в настоящий момент работают без сети столь же высокопроизводительных сетевых соединений, хотя узлы Azure (AZ-A и AZ-H) и NERSC Edison используют высокоскоростные соединения (40Gbs InfiniBand и Cray Aries соответственно) – подробные характеристики различных архитектур узлов/процессоров лучше всего отражены в статье Exabyte.io.


Как показано в таблице и на графиках ниже, Penguin подтверждает, что POD работает наравне с лучшими из крупных провайдеров, и что его цены при этом ниже — по крайней мере так, как показано в исследовании.


В этом сравнении POD решительно вырывается в самый верх, демонстрируя хорошую масштабируемость с увеличением количества узлов/ядер. Сравнение затрат также несоизмеримо, хотя POD имеет значительно более высокую начальную плату за узел, 2,80 доллара в час против наибольшей стоимости топовых Azure IB-A 1,90 долларов за узел в час. Стоит принять во внимание тот факт, что Pinguin сравнивает публично раскрытые тарифы конкурентов, и не учитывает фактор потенциальных скидок.




По утверждениям компании, основные причины снижения затрат — более высокая производительность, сокращение оплачиваемого времени работы, точный его замер до трех секунд по сравнению с округлением до используемого часа у остальных игроков, а также отсутствие многих общих дополнительных сборов, таких, как плата за передачу данных, пропускную способность, настройку и т. д.


«Вам не будет выставлен счет за время простоя, только за время, потраченное на вычисления. Это при том, что другие поставщики облачных решений будут округлять время работы до часа», — сообщается в исследовании. Работа над задачей, которая исполнялась 90 минут, будет стоить столько же, сколько и 61 минуту или 62 минуты, в счетах время будет округляться. Отмечается, что время, истраченное на большинство задач слабо соотносится с таким единицами, как целые часы. Поэтому Pinguin замеряет работу оборудования вплоть до трех секунд. «Говоря о реальном положении дел, мы явно более рентабельны, чем другие поставщики облачных решений для HPC», — говорит Грегорио.


В настоящее время в POD имеется пять разных очередей, каждая указывает на кластер с различными ресурсами и возможностями. Чем меньше вычислительных мощностей, тем меньше стоимость. Тем не менее, Григорио утверждает, что все они — на уровне серьезных рабочих нагрузок для HPC.


Penguin особо не распространяется о размере клиентской базы POD. Сид Майр (Sid Mair), SVP, Federal Systems, подчеркивает, что POD является самой быстрорастущей частью компании, и что клиенты Penguin, переходящие на локальное оборудование и услуги — редкость. Один клиент POD выполняет несколько тысяч ключевых задач, заявляет он, в то время как есть университет, в котором 300 учеников ежедневно решают «крошечные» задачи. Прогнозы погоды, автомобилестроение, традиционные инженерные дисциплины… Грегорио считает серьезной задачу, решаемую на 4000 ядер.


«Почти каждое приложение HPC на рынке работает на POD, и многие из них уже загружены в среду, которую мы используем. Мы часто сталкиваемся с тем, что клиенты переносят свои корпоративные лицензии прямо в POD вместо того, чтобы беспокоится об их управлении», — говорит Грегорио, добавляя, что список приложений на веб-сайте слегка отстает от актуального, в котором приложений и инструментов еще больше. Впрочем, большинство знакомых названий уже здесь: ANSYS, Dassult Systems и MathWorks.


Возможно, неожиданным является то, что предложение узлов с графическим ускорителем (NVIDIA K40) скромнее по сравнению с агрессивно внедряемыми основными облачными игроками устройствами на базе K80 и P100. Грегорио говорит, что Pinguin следит за спросом и способна масштабироваться по мере необходимости.


«Как только мы видим на рынке спрос на такие вещи, как «глубокое обучение», мы это внедряем. В настоящее время мы работаем с большим количеством заказчиков, применяющих в локальных средах технологии «глубокого обучения», и мы используем этот опыт с целью оптимизации облачной среды для этих задач. Мы еще не готовы публично раскрывать свои планы», — говорит Грегорио.

Tags:
Hubs:
+3
Comments0

Articles

Information

Website
galtsystems.com
Registered
Founded
Employees
31–50 employees
Location
Россия
Representative
Алексей