А теперь не актуально. Когда я написал комментарий, в топике был отменный машинный перевод (точно помню что-то вроде «а так же для решения задача, поставленных перед этим суперкомпьютером коммерческие компании»).
Я конечно понимаю, что строить суперкомпьютеры из серийного железа экономически эффективнее,
но больше впечатляли суперкомпьютеры прошлого на специализированных процессорах…
Недавно на вершине был суперкомпьютер с процессорами Sparc архитектуры. Говорилось, что Sparc превосходит x86-64 в большинстве задач по производительности при одинаковом количестве транзисторов.
Так чего опять к x86 вернулись? Реклама Intel и Nvidia?
Titan will be the first major supercomputing system to utilize a hybrid architecture, or one that utilizes both conventional 16-core AMD Opteron CPUs and NVIDIA Tesla K20 GPU Accelerators.
Чтобы получить возможность запустить свой код на Титане, нужно продемонстрировать хорошую производительность и эффективность на похожем, но меньшем кластере (скажем, из Top100), а чтобы дебажить код было удобнее, желательно иметь несколько локальных серверов, похожих на ноды кластеров. Так вот, x86 сервера с Теслами есть в любой HPC лаборатории, и умеренно больших кластеров на x86 с Теслами гораздо проще, чем на SPARC. Поэтому x86 (и nVidia GPGPUs) рулит во всём мире, а SPARC только в Японии. Последнее, видимо, не в последнюю очередь связано с тем, что SPARC процессоры для суперкомпьютеров делает японская Fujitsu.
Не все так просто.
Например, IBM делает свои суперкомпьютеры на процессорах Power и их используют. Буквально пару недель назад именно такой суперкомпьютер был первым в топ500.
Производители используют те процессоры, которые могут получить для работы. У IBM есть свое хорошее железо на всех уровнях — они использую свое, у Fujitsu тоже есть свое железо и процессоры, вот они используют и допиливают их до максимальной эффективности.
У остальных-же своих процессоров нет, по этому им приходится использовать то, что есть, а это только х86, теслы и сейчас Xeon Phi появился.
Получить доступ на суперкомпьютер для научно-исследовательской организации — это не такая большая сложность. А например в США для коммерческих организаций есть даже проекты по бесплатному предоставлению вычислительных ресурсов инновационным предприятиям.
Дебажить параллельный код можно и на ноутбуке, в этом большой проблемы нет, но даже наличие своего миникластера для тестов к сожалению не избавит от потенциально возможной необходимости отладки и профилирования непосредственно на боевом суперкомпьютере.
Да. В прошлом (во времена Cray'ев сконструированных под руководством Cray'я) производительность наращивали за счёт тактовой частоты и всякой векторной /SIMD обработки. И это было более захватывающе, конечно.
А теперь явная тенденция делать многопроцессорные машины, без существенного акцента на тактовой частоте. Отсюда и серийное железо.
Боюсь к моменту «старения» суперкомпьютеров, их железо только утилизировать и можно, из-за большой разницы в процессорной мощности на 1 единицу эл. энергии в сравнении с новым железом.
Cray Titan — самый мощный суперкомпьютер современности