Обновить

Комментарии 10

s/тера/пета/g
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
Уже же был лет 5-6 назад такой проект, надо было поставить утилиту и в свободное время компьютер нагружался вычислениями из неведома откуда. Не знаю что с тем проектом сейчас, но они тогда хотели соединить весь мир…
Живет и процветает, если Вы про BOINC (Berkeley Open Infrastructure for Network Computing) — платформу, которую использует много сетей добровольных распределенных вычислений для различных научных проектов.

Только вот задачи для суперкомпьютеров и задачи для таких сетей — это, можно сказать, не пересекающиеся классы задач и задачи с суперкомпьютеров на такие распределенные платформы не переносимы.
Да, кажется оно. Спасибо за разъяснения.
Если сбавить оптимизм хотя бы на порядок (гораздо меньше реально доступных машин, падение производительности из-за других приложений, необходимость многократного резервирования узлов и т.п.) получится цифра уже сравнимая с этим суперкомпьютером.
Распределенные вычисления — это мощный и эффективный ресурс. Но у него есть свои особенности и ограничения. В системах распределенных вычислений наблюдается своего рода демократия по выбору вычисляемых проектов — Folding@home, SETI@home и т. д., это в принципе полезный для всего глобального общества ресурс. Но вот для решения частных задач он не всегда эффективен, а тем более, если они выбираются по какому-то строгому научному плану с дедлайнами, а не путем пиара. По крайней мере на данный момент, хотя будущее этого тренда весьма интересно.

Вообще, где начинается разделение на распределенные сети пользовательских машин и суперкомпьютеры? На уровне производителей базы (т. е. Intel). Компании и организации, у которых есть средства, заказывают суперкомпьютерное железо сразу под планируемый объем задач, причем зачастую для них чем больше флопсов — тем лучше, но только в пределах суммы, которую они могут на это потратить при текущем уровне технологий. Некоторые идут дальше и не просто заказывают железо, но и финансируют фундаментальные разработки, чтобы это железо, собственно, могло появиться на свет. А с другой стороны, другие компании, организации и потребители покупают обычные ПК и прочие клиенты. В них тоже используются не менее передовые процессорные разработки, только соответственно под другую архитектуру и другой масштаб. В основном ПК призван решать широкий класс клиентских задач потребительского уровня. Эти задачи зачастую отличаются неравномерными требованиями к производительности, т. е. большую часть времени железо простаивает и его можно задействовать для других общественно полезных целей, таких как распределенные вычисления или блокчейн-системы типа биткойнов. Но в последнее время и среди «мелких» потребителей наблюдается растущий спрос на, так сказать, древнейшую профессию компьютеров:) — чему не в последнюю очередь способствует майнинг как способ дополнительной монетизации мощностей потребительских компьютерных систем, а также растущий интерес к некоммерческим проектам и всяческому DIY (тем самым потребитель превращается в просьюмера, что нельзя не приветствовать). Так что ситуация вполне может двигаться к тому, что владение тера-/пета-… флопсами и вообще уровень ИТ-компетенции, позволяющий их как можно эффективнее задействовать, будет рассматриваться как некий показатель демократичности общества, в котором каждый сознательный гражданин стремится контролировать как можно более эффективную вычислительную систему, позволяющую вносить свой вклад в общую вычислительную мощность цивилизации и предотвращать злоупотребления со стороны субъектов, стремящихся узурпировать значительную ее часть в потенциально недружественных целях (маленькие сестры против Большого Брата). Особенно интересной ситуация может стать с распространением квантовых компьютеров, а также с интеграцией компьютера и мозга, задействованием биотехнологий и т. д.
… лидерство в этой сфере, позорно утерянное ...

А почему позорно? Ну да, сместил их китайский компьютер с первого места, но в чем позор то? Обычная конкуренция.
>за недолгое время количество американских суперкомпьютеров в списке уменьшилось с 291 до 233
недолгое — это сколько? 5 лет? 100?

Практически все системы в топ500 построены американскими компаниями на американских же процессорах. Исключение — Фуджики, со своим спарком.

Все ГПУ сделаны там же.

Интерконнекты — оттуда же.

Очень печальное увядание.

Да и вообще сам Донгарра сказал что топ500 уже не актуален. Есть HPCG, есть graph500, есть HPCC. Для того же милкивея скорее всего полный прогон не делали, удовлетворившись прикидками и усреднениями по партициям. Полный же запуск на такой системе будет занимать неделю, и с вероятностью в 99% сдохнет из-за сдувшегося узла. Цена такой цифры будет тоже хорошей — по откушанному электричеству.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации