Сильно зависит еще от объема обрабатываемых данных и от возможности распараллелить по данным.
Можно посмотреть мою первую статью по OpenCL habrahabr.ru/blogs/hi/116579/ там я постарался про подводные камни написать.
Основываюсь здесь на докладе директора Т-Платформы (тех, кто наш Ломоносов делали) на ПАВТ-2011.
Начиная с некоторого количества узлов, они начинают ломаться непрерывно. Речь шла о проблеме петафлопа, именно для нее этот фактор становится принципиальным.
Насчет больших задач я в статье прямо написал
«Во многих алгоритмах время исполнения параллельного кода сильно зависит от количества обрабатываемых данных, а время исполнения последовательного кода — нет.
Потому «загоняя» на суперкомп большие объемы данных получаем хорошее ускорение.
Например перемножая матрицы 3*3 на суперкомпьютере мы вряд ли заметим разницу с обычным однопроцессорным вариантом, а вот умножение матриц, размером 1000*1000 уже будет вполне оправдано на многоядерной машине.»
«Статья написана сумбурно, желая покрыть сразу все, толком ни один аспект не описан как следует.»
Ну, здесь на каждый аспект можно написать отдельную статью и не одну. Полных обзоров я на русском языке не видел. Мне интересно было как раз сделать общий текст, чтоб видна была связь, эволюция и ограничения технологий и было бы возможно копать глубже там, где конкретно нужно.
Принципиально однопоточный код увеличением количества процессоров/ядер ускорить нельзя. Никак, т.к. работает только одно ядро. Самый же быстрый на сегодняшний день суперкомп китайский Tianhe-1A построен на 14336 стандартных Intel Xeon и 7168 NVIDIA TESLA M2050. Тот же ксеон (один!) засовываем в настольный ящик, получаем практически такую же производительность (точнее — см. график)
Это делается не так. Внятно формулируется задача и предложения по ее решению + координаты связи, печатается на принтере и расклеивается на видных местах.
У нас в деревне и без всяческих стартапов мы (за свои деньги с помощью самостоятельного наема организаций) за одно лето:
1) Провели водопровод
2) Отсыпали дорогу
3) Повесили на столбы фонари, управляемые фотоэлементами (чтоб не париться с включением-выключением)
Дело скорее в инициативе, в людях, которые начнут процесс.
Люди одни и те же (половина на улице — люди переехавшие из города), просто в деревне никакой надежды на то, что кто-то сделает нет.
В городе это через ТСЖ двигать нужно.
Что-то та ПАВТ-2011 я не помню этой темы… не попал на какую-то презентацию?
Хотя вопрос, скорее, академический — все решают задачи, и суперкомпьютер это нечто, умеющее решать одну большую задачу и созданное для этого.
Правда это тесла а не Geforce 580. На джифорсах я бы считать динамику не стал — когда вычисления занимают сутки, большая вероятность сбоя, видюхи на другие режимы и другое число ошибок рассчитаны.
Не знаю, как в Москве — но в моем Иркутске если кричать «на помощь!» то помогают, по моему опыту, всегда, даже посреди ночи выбегают (девчонка кричала).
А если не кричать и не привлекать внимание — не помогают.
Можно посмотреть мою первую статью по OpenCL habrahabr.ru/blogs/hi/116579/ там я постарался про подводные камни написать.
Начиная с некоторого количества узлов, они начинают ломаться непрерывно. Речь шла о проблеме петафлопа, именно для нее этот фактор становится принципиальным.
«Во многих алгоритмах время исполнения параллельного кода сильно зависит от количества обрабатываемых данных, а время исполнения последовательного кода — нет.
Потому «загоняя» на суперкомп большие объемы данных получаем хорошее ускорение.
Например перемножая матрицы 3*3 на суперкомпьютере мы вряд ли заметим разницу с обычным однопроцессорным вариантом, а вот умножение матриц, размером 1000*1000 уже будет вполне оправдано на многоядерной машине.»
«Статья написана сумбурно, желая покрыть сразу все, толком ни один аспект не описан как следует.»
Ну, здесь на каждый аспект можно написать отдельную статью и не одну. Полных обзоров я на русском языке не видел. Мне интересно было как раз сделать общий текст, чтоб видна была связь, эволюция и ограничения технологий и было бы возможно копать глубже там, где конкретно нужно.
За уже свое (в отличие от абстрактно дареного) люди на многое способны.
1) Провели водопровод
2) Отсыпали дорогу
3) Повесили на столбы фонари, управляемые фотоэлементами (чтоб не париться с включением-выключением)
Дело скорее в инициативе, в людях, которые начнут процесс.
Люди одни и те же (половина на улице — люди переехавшие из города), просто в деревне никакой надежды на то, что кто-то сделает нет.
В городе это через ТСЖ двигать нужно.
Хотя вопрос, скорее, академический — все решают задачи, и суперкомпьютер это нечто, умеющее решать одну большую задачу и созданное для этого.
www.nvidia.ru/page/gromacs_on_tesla.html
(Перейдите уж по ссылке, там много чего есть)
Если интересна не только молекулярная динамика, то
www.nvidia.com/object/tesla_bio_workbench.html
Правда это тесла а не Geforce 580. На джифорсах я бы считать динамику не стал — когда вычисления занимают сутки, большая вероятность сбоя, видюхи на другие режимы и другое число ошибок рассчитаны.
www.nvidia.ru/page/amber_on_tesla.html
А если не кричать и не привлекать внимание — не помогают.
school.hpc-russia.ru/
Летняя школа по суперкомпьютерным технологиям.
Увы, я уже не молод и не попадаю.