Pull to refresh

Comments 23

А о чём, собственно, пост? О том, что некоторые алгоритмы хорошо масштабируются горизонтально и можно их запрограммировать с использованием openMPI и запустить на нескольких машинах?
Показать эффективность работы кластерных систем на конкретном примере.
Как часто вам надо считать число Pi? :)
Вся сложность кластеризации реальных задач заключается в поиске параллельных алгоритмов. Детали же, openMPI это будет или нет, уже практически не влияют на результат.

Например, кластеризовать классические RDBMS крайне тяжело, и результат будет далеко не линейным от количества машин. А кластеризовать какое-нибудь key-value хранилище, изначально построенное на концепции eventual consistency и DHT легче лёгкого, ещё и реплик понаделать при этом, при линейном росте производительности на чтение и запись.

Ещё пример: параллелить ECB шифрование легко, CBC — невозможно.
Пойдем от пути простого к сложному, и начнем с числа Pi, дальше больше…

Про CBC согласен т.к. в этом режиме при шифровании каждая итерация алгоритма зависит от результата предыдущей итерации.
Загружаем пакет openMPI на узлы кластера, собираем и устанавливаем их.
./configure, make, make install


Нет правда… именно так? делаем из sles слаку…
Стоит отметить, что у проекта есть src.rpm
В данном случае, был определён общий порядок действий при конфигурации и установки пакета openMPI.
Не на порядок, а на некоторый процент, меньший (1/N) * 100%.
UFO just landed and posted this here
Исходный код программы для распределенного вычисления числа Pi.
Другие MPI не смотрели? Intel MPI, HP-MPI? Фортран интеловским компилятором с оптимизациями не собирали?

Что касается масштабирования, к сожалению расчетные задачи так линейно себя редко ведут. В основном после прохода некой границы расчет начинает ускоренно замедлятся.
Кластерные системы MPI от Intel и HP пока не использовал, как-то не приходилось, но в будущем — возможно.
Они неплохо оптимизированы и показывают результаты выше чем у OpenMPI.
Мы на нашем кластере давно ушли от OpenMPI. Невнятная вещь какая-то. Пользователи постоянно жаловались. В итоге грохнули, переехали обратно на qlogic mpi.
Мой опыт разработки с использованием OpenMPI тоже не ах. Производительность низкая.
Ну мы на своем в основном HP-MPI используем. Вместе с Infiniband вроде бы неплохо себя ведет :)
HP-MPI коммерческий продукт, в настоящее время нашей организации не требуется это решение, но в планах возможен переход на кластерные системы от HP.
Ну он поставляется в комплекте некоторого коммерческого софта, как и Intel-овский. О возможностях использования по отдельности лучше узнайте на офсайтах.
Оборудование у нас не HP, если что.
Давайте всё-таки в заголовке уточнять, что за кластер. А то «абстрактный кластер» — это примерно как «абстрактное счастье».
Хорошо, в следующих статьях учту
UFO just landed and posted this here
Sign up to leave a comment.

Articles