MPI может применить (так чтобы это имело смысл) любой человек, у которого есть многоядерный процессор или более одного компьютера.
А вот то, что не каждому дадут время на каком-нибудь Ломоносове, это немного ограничивает поле для экспериментов.
Я не особо люблю синтетические примеры, которые считаются на одном процессоре быстрее, чем на двух, поэтому когда руки дойдут до хорошего примера, который будет учитывать задержки работы с памятью, задержки работы с сетью и считаться будет на нескольких вычислительных узлах, то постараюсь оформить это постом.
Изначально — да, OpenMP создавался для систем с общей памятью, а MPI для систем с разделяемой памятью, но в последнее время было сделано множество нововведений, которые сделали их почти неотличимыми.
В обоих стандартах все задержки работы с памятью должен учитывать программист, поэтому нет особой разницы что использовать.
Однако, MPI является интерфейсом, который реализуют производители почти всех кластерных систем.
Есть какая-то довольно хорошая пропитка для дерева — ею знакомые знакомых пропитали пристройку к бане (по сути дровницу, ибо там только дрова и были). Однажды произошел пожар в бане, так баня выгорела, а пристройка разве что с одной стороны подкоптилась от дыма.
Видео с презентации можно будет потом где-нибудь скачать?
Особенно интересуют вопросы-ответы.
К сожалению, именно 30 июня из родного Питера отправляюсь «далеко и надолго».
Палитра (3c8, 3c9). Видеопамять 0xA0000000.
А вот то, что не каждому дадут время на каком-нибудь Ломоносове, это немного ограничивает поле для экспериментов.
В обоих стандартах все задержки работы с памятью должен учитывать программист, поэтому нет особой разницы что использовать.
Однако, MPI является интерфейсом, который реализуют производители почти всех кластерных систем.
Так ли много в скриптах читать или Вы предлагаете и бинарники читать?
Ну и чтение того что ставишь никто не отменял.
Особенно интересуют вопросы-ответы.
К сожалению, именно 30 июня из родного Питера отправляюсь «далеко и надолго».