Pull to refresh

Comments 19

Для того, чтобы правильно интерпретировать (читайте: игнорировать) эту "новость", полезно взглянуть на последнюю версию списка "топ500" суперкомпьютеров. Лидер списка имеет 1200 ПФ, а последний - чуть более 2 ПФ. https://top500.org/lists/top500/list/2024/06/

К сожалению, вы не следите за развитием академических СКЦ, отсюда и ваш сарказм. Но поинтересуйтесь их жизнью внимательнее, и вы будете гордиться их работой.

Академические СКЦ не только выполняют свою уставную задачу — обслуживают академические расчёты, но заодно и выполняют задание по договорным расчётам для коммерческих предприятий. Это позволяет им самостоятельно оплачивать часть своих расходов. Вот так-то!

Ну вообще действительно слабенько. У Сбера или Яндекса в десятки раз больше. В том же ТОП500 их видно. И у них это в одном датацентре построено. Растягивать вычисления на много тысяч километров неэффективно для большинства типовых задач.

Сбер или Яндекс платят за свои суперкомпьютеры, и их клиенты тоже платят за доступ.

А Академия наук не может платить за доступ к своим СКЦ, поэтому не платит за них.

Вы сравниваете суперкомпьютер, который построен в коммерческой корпорации, с суперкомпьютером, который построен в НКО. Это совершенно разные задачи. У корпорации задача — получать прибыль с помощью суперкомпьютера, а у НКО задача — обходиться без прибыли с помощью суперкомпьютера.

Это никак не отменяет того что решения качественно разные.

Я бы сказал что реальная разница под 100 раз. Это качественно меняет масштаб задач которые на них можно решать. При такой разнице просто немного дольше подождать уже не работает.

Вы правы. Масштабы действительно очень разные, задачи тоже очень разные.

Мне встречалось мнение, что для некоторых задач будет дешевле и быстрее — собрать данные на винчестерах, погрузить в чемодан, прилететь в китайский университет, посчитать на их машине и вернуться.

А вот почему нельзя дольше подождать, это я прошу вас раскрыть подробнее. Есть проекты, которые работают на BOINC, эмулируя суперкомпьютер за счёт распространённой добровольческой (!) архитектуры, то есть результат расчётов получается хотя и долгим, но полностью бесплатным.

Задачи бывают разные. Некоторые можно распределять на любое расстояние в пределах Земли и не получать заметного замедления. А некоторые нельзя. Бытовой пример: даже по сотне ядер одного процессора распределить мало что выходит.

Вот мой опыт говорит что практических/научных задач которые нельзя распределить по всей Земле заметно больше. Даже для их распределения по одному датацентру надо приложить значимые усилия. Пруфов не будет, сорри. NP задачи решаемые квантовым компьютером это неплохой, но сложный, пример.

И да если можно просто сгонять с дисками куда угодно и посчитать там это оптимальный путь. Ничего не имею против. Шутка про газельку с hdd это вообще не шутка. Это на самом деле оптимально в некоторых случаях.

Есть задачи, для которых замедление не имеет значения. Пусть замедление, только бы получился результат.

А вот почему нельзя дольше подождать, это я прошу вас раскрыть подробнее. Есть проекты, которые работают на BOINC, эмулируя суперкомпьютер за счёт распространённой добровольческой (!) архитектуры, то есть результат расчётов получается хотя и долгим, но полностью бесплатным.

Физика моделируемых процессов не позволяет использовать распределённые вычисления. Например, термодинамика ударных волн.

Суперкомпьютер Ломоносов в МГУ имеет(имел?) пиковую мощность 1.7 ПФлопс. Проект 2012-го года.

Ломоносов-2 имеет 5 ПФлопс.

Был в ННГУ вычислительный кластер, а потом и суперкомпьютер, вот только доступа к тому кластеру никогда не было и мы на кафедре со своих грантов покупали компьютеры для расчетов. Моя магистерская диссертация в области моделирования нелинейной оптики первое место по России в свое время заняла, при том, что все вычисления были сделаны на нескольких десктопах, считавших месяцами. А университетский суперкомпьютер кому-то деньги зарабатывал на коммерческих задачах в это время. Так что оставьте вашу лживую пропаганду при себе.

Вы всё правильно написали. С одной только поправкой. Университет ставит перед своим суперкомпьютерным центром разные задачи, и одна из этих задач — доход.

Если построенный за счет бюджета суперкомпьютер университета только деньги зарабатывает (которые на зарплаты большинства сотрудников и стипендии студентов не тратятся), то для учебы и науки он бесполезен и служит только для чьего-то личного обогащения. Есть исключения, что особо известные сотрудники получают какой-то доступ для себя и своих студентов, так они его и в том же Интеле или Сбере могли получить, без всей этой дорогостоящей симуляции суперкомпьютерных вычислений для учебы и науки.

Я так понял рассчитывать на то что Консорциум ответит на вопрос что такое шаровая молния или что происходит на рачно Skinwalker не стоит надеяться?)

Объясните несисадмину: им не надо было объединяться или что? 🤔

Несколько моментов. Первый - вот это не является "суперкомпьютером", как подразумевает автор статьи:

900 серверов c суммарной пиковой производительностью 1,5 ПФлопс

Заголовок статьи также некорректен:

Шесть суперкомпьютерных центров России объединились в консорциум

Это не суперкомпьютеры а лишь ЦОДы, причем не очень производительные.

Основная разница между суперкомпьютером и ЦОД (серверы на локальной сети), в том, что в основе у первого находится (часто - специализированный) широкополосный (high bandwidth) канал обмена информации между процессорами с очень низкими задержками (latency). Иными словами, с точки зрения обмена информации, процессоры находятся очень "близко" друг к другу. Чаще всего здесь используется технология InfiniBand, NVLink или специальные решения (в списке top500 указывается тип соединения для каждого участника списка). Подобная "близость" необходима для эффективной реализации целого класса распределенных алгоритмов в газовой динамике, термодинамике, и прочих. В экстремальном случае, алгоритм может быть запущен одновременно на всех процессорах суперкомпьютера. Есть и другие особенности.

ЦОДы отлично работают там, где (в идеале) возможно т.н. "тривиальное" распараллеливание, либо где требования к задержкам при обмене информацией (сообщениями) между серверами некритичны.

В обеих вариантах узлы (или серверы в ЦОД) помимо собственно CPU и памяти, могут иметь GPU (TPU, NPU), причем как в дискретном варианте, так и в интегрированном (на т.н. "материнской" плате). Последнее более характерно для суперкомпьютеров.

Что касается, собственно вопроса об "объединении". Если речь идет о расширении доступа к существующим ресурсам, тогда смысла/пользы в этом мало, с учетом суммарного масштаба в 1.5 ПФ. Это вообще "крохи", в современном мире. Например один процессор Nvidia GH200 NVL2 имеет 68 teraFLOP с на операциях с плавающей 64-бит. 20 таких карточек заменяет все 6 "суперкомпьютерных" центров.

Скорее всего, речь идет о создании своеобразного научного "лобби" для выбивания финансирования на кратное (реально необходимо говорить о порядках, для достижения качественного скачка в решении задач моделирования или обработки информации). В этом может быть единственный смысл подобного объединения.

Ну и всегда остается вариант "бюрократических игр". Чиновники обожают "объединения" (чиновников). Это придает дополнительный смысл их существованию, а также приносит бенефиты (командировки, конференции, и прочее). Простите за цинизм.

Скорее всего, речь идет о создании своеобразного научного "лобби" для выбивания финансирования на кратное (реально необходимо говорить о порядках, для достижения качественного скачка в решении задач моделирования или обработки информации).

По заголовку я тоже так подумал 🤔 обычно, если речь идёт об объединении железа, в заголовках хотя бы фигурирует слово "кластер". И тогда плюс-минус понятно, в чём суть. А тут всё выглядит так, будто между ЦОДами протянули больше оптики, чтобы данными напрямую обмениваться и было быстренько

UFO just landed and posted this here
Sign up to leave a comment.

Other news