Как стать автором
Обновить

Лучшие суперкомпьютеры мира — как выглядят и зачем нужны?

Время на прочтение17 мин
Количество просмотров38K
Всего голосов 9: ↑8 и ↓1+10
Комментарии19

Комментарии 19

Вообще, уже давно ходят слухи, что в Китае существует три непубличные эксафлопсные системы OceanLight, Tianhe-3, The Sugon system. Однако до сих пор эта информация официально никак не подтверждалась.
ИМХО тогда уже надо бы упомянуть и другой «непубличный» (официально не входящий в TOP500) эксафлопсный суперкомпьютер Tesla Dojo.
Тем более, что в отличие от упомянутых китайских, информация по нему есть.

А на них контра пойдет?

только дум

Пойдёт -в нашей стране тоже есть суперкомпьютеры , но они будут поскромнее но всё равно - это не обычный компьютер который на столе стоит в офисе или квартиры ,это шкафы в человеческий рост и занимают площадь от ста до 650 кв метров и память их в миллиарды раз больше чем у бытового компьютера .

По моему, тема практической пользы от тех или иных расчётов на суперкомпьютерах не раскрыта.

Хотелось бы услышать конкретные примеры, когда именно с помощью трудоёмких расчетов на супер компьютере удалось получить практическую пользу от решения конкретной востребованной задачи, а не абстрактное "...изучение взаимодействия между природными явлениями и деятельностью человека..."

Примеры многочисленных научных статей (где цель часто подгоняется под результат), когда чего-то рассчитали, что по факту никому кроме авторов этих статей не нужно, лучше не и приводить.

Просто складывается впечатление, что академические институты за государственные деньги греют воду...

В статье этому посвящено несколько абзацев. Попробуйте её все-таки прочитать..

Пробовал, однако ответов по существу нашел не особо много.

Пишут:

"Поэтому основная задача WDMApp — объединение различных вычислительных методологий и кодов для описания турбулентных взаимодействий в центре плазмы (ядре) по сравнению с взаимодействиями, возникающими на границе плазмы (периферии). "

Не ясно, описание турбулентных взаимодействий будет ли реально необходимым чтобы начать получать практическую пользу от термоядерной энергии. Хотелось бы получить развернутый ответ от специалиста в теме.

Про полимеры, различные детали и т.п.

Будучи немного в теме, подвергаю сомнению, что есть необходимость использовать расчёты на суперкомпьютере для придания необходимых свойств конечным деталям, полиуретанам (или иным полимерам). Для достижения этих целей в соответствующих областях используют совсем иные инструменты и подходы.

Далее "...По этой причине многие годы Fujitsu сотрудничала с Международным научно-исследовательским институтом катастроф для реализации новой инициативы — модели искусственного интеллекта для прогнозирования наводнений и цунами в режиме реального времени... ".

И что благодаря суперкомпьютерам ИИ уже предсказывает наводнения и цунами в режиме реального времени? В лучше случае датчиками зафиксируют факт землетрясения, сфотографирую факт наличия гигантской волны в океане, измерят скорость ее распространения и посчитают (на калькуляторе) сколько осталось времени, когда она дойдет до ближайшего населенного побережья...

Еще: "Одним из примеров исследований, в которых используется LUMI, стал искусственный интеллект, разработанный исследовательской группой университета Тампере — она занимается диагностикой и классификацией рака простаты.".

Возможно тут может быть какая-то польза. Хотелось бы узнать мнение врачей, которые в своей работе используют эти результаты.

Тут "В общем, Leonardo (впрочем, как и LUMI) послужит своего рода европейской альтернативой американского Frontier, взвалив на свои плечи задачи по анализу космических данных, расчету новых материалов, прогнозированию изменения климата, анализа нитей ДНК и моделированию цифровых двойников, будь то атмосфера земли или орган человеческого организма. "

Это общие слова о возможной пользе в будущем. Уверен, что и при запуске других теперь уже не суперкомпьютеров лет 30 назад, произносились подобные слова.

Тут опять "...Как только у команда соберет достаточно большой набор корреляций, их можно будет проверить на нескольких группах: тех, у кого развилась опиоидная зависимость, и контрольной группе, у которых зависимости нет. ".

Будем ждать и наедятся....

Тут "..Все три системы используются для внутренних нужд Яндекса. Именно на них компания обучает свои нейросети, на основе которых работают сервисы Яндекс.Переводчика, Яндекс.Директа, Яндекс.Алисы и многих других приложений. ".

Соглашусь, реальная польза (разовая - чтобы быстрее натренировать сеть) есть.

По этому и говорю, тема не раскрыта.

Про такую штуку, как прогноз погоды, слышали?..


Ещё современная архитектура без численных расчётов немыслима. Да и вообще любая инженерная задача без аналитического решения рано или поздно приводит к моделированию на суперкомпьютере.

В драг-дизайне и прочей биоинформатике HPC весьма нужен. Сейчас у любой бигфармы есть по нескольку суперкомпьютерных кластеров.

Цифровой двойник — это замена натурной машины её математической моделью.… Ведь единственное натурное испытание, доступное военным, это крэш-тест, где отваливается крыло или переворачивается танк.… Цифровая модель намного дешевле, даже если придётся калибровать её на реальных объектах.

(https://habr.com/ru/post/701924)

Статья о суперкомпьютерах вообще и об их потенциальных возможностях, а не отчет о результатах их работы. Это даже из заголовка понятно.

  • Nvidia (Япония)

    А Nvidia в курсе что они японская компания?

То что нужно, чтобы работать в Google Chrome :)

Оба построены на базе процессоров NVIDIA A100 40G, поэтому их мощность немного скромнее — 16 и 12 петафлопс соответственно.

Кажется, что тут у автора нарушилась причинно-следственная связь, причем более одного раза. Например, a100 80g отличается от a100 40g только объемом ram, а не попугаями.

Отчасти да, но строго говоря, может и нет. Производительность обычно считается LinPack-ом, запускающим определенные тесты. Чем меньше памяти на gpu, тем больше будет батчей. На их формирование и пересылку между cpu и gpu тоже уходит время, что приводит к просадке общей производительности.

Возможно, что Вы прям попали в точку, но из текста автора этого не следует.

около 9 472 64-ядерных процессоров Epyc 7453 - сколько точно-то? В других источниках 9471,524

Так статья создаёт ощущение написанной нейросеткой, натренированной на генерацию рефератов.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий