Comments 23
А о чём, собственно, пост? О том, что некоторые алгоритмы хорошо масштабируются горизонтально и можно их запрограммировать с использованием openMPI и запустить на нескольких машинах?
+6
Показать эффективность работы кластерных систем на конкретном примере.
-2
Как часто вам надо считать число Pi? :)
Вся сложность кластеризации реальных задач заключается в поиске параллельных алгоритмов. Детали же, openMPI это будет или нет, уже практически не влияют на результат.
Например, кластеризовать классические RDBMS крайне тяжело, и результат будет далеко не линейным от количества машин. А кластеризовать какое-нибудь key-value хранилище, изначально построенное на концепции eventual consistency и DHT легче лёгкого, ещё и реплик понаделать при этом, при линейном росте производительности на чтение и запись.
Ещё пример: параллелить ECB шифрование легко, CBC — невозможно.
Вся сложность кластеризации реальных задач заключается в поиске параллельных алгоритмов. Детали же, openMPI это будет или нет, уже практически не влияют на результат.
Например, кластеризовать классические RDBMS крайне тяжело, и результат будет далеко не линейным от количества машин. А кластеризовать какое-нибудь key-value хранилище, изначально построенное на концепции eventual consistency и DHT легче лёгкого, ещё и реплик понаделать при этом, при линейном росте производительности на чтение и запись.
Ещё пример: параллелить ECB шифрование легко, CBC — невозможно.
+1
Загружаем пакет openMPI на узлы кластера, собираем и устанавливаем их.
./configure, make, make install
Нет правда… именно так? делаем из sles слаку…
./configure, make, make install
Нет правда… именно так? делаем из sles слаку…
+6
Не на порядок, а на некоторый процент, меньший (1/N) * 100%.
+2
UFO just landed and posted this here
Другие MPI не смотрели? Intel MPI, HP-MPI? Фортран интеловским компилятором с оптимизациями не собирали?
Что касается масштабирования, к сожалению расчетные задачи так линейно себя редко ведут. В основном после прохода некой границы расчет начинает ускоренно замедлятся.
Что касается масштабирования, к сожалению расчетные задачи так линейно себя редко ведут. В основном после прохода некой границы расчет начинает ускоренно замедлятся.
+1
Кластерные системы MPI от Intel и HP пока не использовал, как-то не приходилось, но в будущем — возможно.
0
Они неплохо оптимизированы и показывают результаты выше чем у OpenMPI.
0
Мы на нашем кластере давно ушли от OpenMPI. Невнятная вещь какая-то. Пользователи постоянно жаловались. В итоге грохнули, переехали обратно на qlogic mpi.
Мой опыт разработки с использованием OpenMPI тоже не ах. Производительность низкая.
Мой опыт разработки с использованием OpenMPI тоже не ах. Производительность низкая.
0
HP-MPI коммерческий продукт, в настоящее время нашей организации не требуется это решение, но в планах возможен переход на кластерные системы от HP.
0
Давайте всё-таки в заголовке уточнять, что за кластер. А то «абстрактный кластер» — это примерно как «абстрактное счастье».
0
UFO just landed and posted this here
Sign up to leave a comment.
Кластер? Легко!