Pull to refresh

Comments 29

>20 петафлопс в секунду

Это как 60 фпс в секунду.
А что смущает? Китайцы, не покладая рук, вводят в эксплуатацию по 20 петафлопс в секунду. Пока мы тут рассуждаем…
… не задумываясь о правилах употребления единиц измерения, годы проходят, а население так и остается неграмотным.

Флопс — это уже сокращение, flops — FLoating-point Operations Per Second.… флопс в секунду — это либо масло масляное, либо операций в секунду за секунду, то есть не скорость, а ускорение вычислений.
Я полагал, что банальная шутка про ускорение будет понятна не только лишь математикам.

В предыдущем сообщении о чем написано?

«Китайцы, не покладая рук, вводят в эксплуатацию по 20 петафлопс в секунду.» < — речь об ускорении, о ежесекундном росте скорости вычислений
Интересно, как бы каждый использовал такие мощности? Если бы Вы имели возможность арендовать какую-либо часть на длительное время, но объяснив зачем вам они.
Для отопления жилища с помощью майнинга.

Ну или района, если речь о комплексе целиком.
Машинное обучение. Я в ночь частенько дома запускаю XGBoost. С утра смотрю чего там… ) В последнее время правда у меня больше проблема с нехваткой памяти нежели с процессорными мощностями.

Как я понял архитектура этого суперкомпа, не особо подходит для нейронных сетей.
Первая, которая только началась, сделает доступным для научного сообщества компьютер мощностью 20 петафлопс и хранилище данных емкостью более 20 петабайт

Первое место ТОП-500:


  • Sunway TaihuLight: 93,014.6 TFlop/s

Этот будет в 200 раз производительнее? В порядке не ошиблись?

Что-то я не пойму как тут 200 получить. 20 петафлопс = 20 000 терафлопс. Всего лишь в 4 раза менее мощный.

Я слепой и невнимательный. 93,014.6 TFlop/s — воспринял запятую как десятичный разделитель, а точку не увидел.
90 и 20 PFlops. Все встало на свои места.

Думаю это ещё один шаг для развития науки. Даже интересно поставят ли туда теслы п100/к80 или ограничатся лишь сервер.процессорами?
Традиционно делают несколько GPU-нод ибо редко кто пишет научный код под нестандартные архитектуры (это просто-напросто никому не надо). Бывают еще постоянные клиенты HPC провайдеров такие как сервис прогнозов погоды. Их легче мотивировать перейти на GPU ибо это экономически выгодно клиенту.
базируется на следующем поколении Intel Xeon Phi
www.intel.com/content/www/us/en/processors/xeon/xeon-phi-detail.html

Собирают в несколько стадий, сначала Xeon E5-2697 v4 Broadwell общим уровнем в 2 Пфлопс (1.5 тысячи узлов с двумя 18-ядерными чипами на 2.3 ГГц +128 GB DDR4 на узел; уже в top500: https://www.top500.org/system/178755), около 21 стойки с 72 узлами каждая
Затем Xeon Phi (суммарно 250 тыс ядер = 3.6 тысячи чипов phi; 96 GB + 16 GB MCDRAM; +11 Пфлопс) — каждый узел состоит только из XeonPhi в качестве центрального процессора
Затем замена на более современные Xeon — летом 2017.


http://www.hpc.cineca.it/hardware/marconi


The new system will gradually be completed in about 12 months, between April 2016 and July 2017, according to a plan based on a series of updates:
A1: a preliminary system going into production in July 2016, based on Intel® Xeon® processor E5-2600 v4 product family (Broadwell) with a computational power of 2Pflop/s.
A2: by the end of 2016 a new section will be added, equipped with the next-generation of the Intel Xeon Phi product family (Knights Landing), based on a many-core architecture, enabling an overall configuration of about 250 thousand cores with expected additional computational power of approximately 11Pflop/s.
A3: finally, in July 2017, this system is planned to reach a total computational power of about 20Pflop/s utilizing future generation Intel Xeon processors (Sky Lakes).

Инструкции — https://wiki.u-gov.it/confluence/display/SCAIUS/UG3.1%3A+MARCONI+UserGuide


В предварительных планах на 2019-2020: http://www.hpc.cineca.it/content/introduction-marconi-hpc-cluster-users-and-developers "expected final peak performance of 50/60 Pflop/s"

Intel Xeon Phi это не обычные серверные процессоры. Это отдельная специфическая архитектура, которая ближе к GPU и ускорителям на их базе типа теслы от зеленых, чем к обычным процессорам. Соответственно отдельные ускорители тут не требуется, это уже и так гибридная архитектура из обычных универсальных процессоров (Xeon E5-2600) и специализированных векторных процессоров (Xeon Phi)
Интересно, уверен что я не первый, но вот все такие монстры собираются в одном помещении. Но почему не попробовать создать облачный суперкомпютер который будет работать на компютерах пользователей мира.

Достаточно к примеру скачать что то на подобии виртуалбокса и развернуть там специальный образ. И наш компютер получается подключенным к большому облаку. При первом запуске будет запущен бенчмарк чтобы оценить потенциал компютера.

Както делают сети ботнетов, кто то запускает майнеры, но почему не делают полезные расчеты?

P.S Или я что то пропустил и такое уже давно есть, или было и не выстрелило…
Вы, наверное, не представляете, что такое HPC. Там ноды физически соединены ВСЕ со ВСЕМИ Infiniband или чем-нибудь еще быстрее. Такая производительность сети просто-напросто невозможно в облаке да и цель такая там, в общем, не ставится.
UFO landed and left these words here
Никогда не сталкивался с пингом как реальной проблемой для MPI. Хотя я не сомневаюсь, что те, кто собирает такие системы выкручивают все доступные параметры.

Я, собственно, за что купил — за то и продал: экскурсовод сказал, что соединены все со всеми в рамках пары стоек. Реальные задачи, полагаю, можно разместить в рамках одной пары в 99% случаев.
UFO landed and left these words here
Такому проекту уже много лет, называется boinc. Пользователи по всеми миру могут принять участие в любом полюбившемся научном проекте, выделить так сказать свои мощности) У меня несколько машин вписано, считают для проектов по поиску внеземных цивилизаций seti и исследование гравитационных волн.
Причем работает это и без виртуалбокса. Ставишь клиент, выбираешь проекты, назначаешь расписание работы и погнали. Но для отдельных проектов виртуалбокс идет как опция, да.
Когда возможно — делают. Но в большинстве случаев необходима не только огромная вычислительная мощность, но и огромная пропускная способность для активного обмена данными между вычислительными узлами. Вот задачи, которые можно распределять без этого, и получают распространение за пределами подобных вычислительных центров.

Было бы достаточно полезных подходящих задач, можно было бы развивать тему индивидуальных вычислительных систем отопления. 10-20-киловаттный вычислитель пришелся бы кстати во многих домах на доброй половине планеты. Не понимаю, почему выше уже начали минусить упоминание этого очевидного стремления объединить нужды «согреться» и «посчитать».
Кстати да. Читал раньше про это, и скажу за себя — зимой мой ПК работает 24/7 так как отопление у меня частично электрическое. Мне абсолютно всеравно что будет вырабатывать тепло а лишний раз выключать компютер вредно :). В этом году к примеру в среднем я использовал 2.5 квт*час на отопление электричеством. Это 5 месяцев в году. А если бы мне кто то поставил гудящий шкаф в кладовке и оплачивал электричество то я был бы безмерно щастлив, я бы подвел 3 фазы и оформил тариф на отопление электричеством (а это 3000квт*час в месяц на отопительный сезон по льготным ценам) :). Тем болие для физиков электричество дешевле чем для юрлица. А еще бы я мог поменять блок питани или винчестер если что, или даже заменить сервер в стойке(наверно).
https://ru.wikipedia.org/wiki/Добровольные_вычисления
Ну выше ссылок уже накидали кучу, что такое давно есть и активно используются. Лишь добавлю что это 2 принципиальных разных подхода и архитектуры:

HPC — High Performance Computing — высокопроизводительные вычисления = классические суперкопьютеры типа описанного в статье
и
HTC — High Throughput Сomputing — вычисления с высокой пропускной способностью, обычно это распределенные/облачные сети

И соответственно разные классы задач. Для решения каких-то достаточно HTC(в частности множество научных задач), для других обязательно нужен только HPC. При этом суперкопьютер может эффективно решать как HPC так и HTC задачи. А вот наоборот — нет, на HTC сети можно только HTC задачи обсчитывать.
Интересно, в период тестов системы сколько намайнили биткоинов :).
Only those users with full accounts are able to leave comments. Log in, please.