Pull to refresh

Comments 8

А это не Вы, случайно, выступали с докладом на похожую тему на конференции в Коврове этой весной?
Нет, не я. Докладов по данной теме уже достаточно много в России. Если интересны именно основы, рекомендую презентации Сергея Жуматия. Либо его же (в соавторстве с другими грандами HPC в России) курс.
Ну, значит обознался, извините.
И спасибо за ссылку
Тема интересная. Особенно хочется уточнить: несмотря на то что на каждом узле одновременно установлено две операционки, ведь в один момент времени работает только одна? Виртуализации на узлах не производится?
Как устроено хранение данных?
Да, вы правы, виртуализация не производится. В общем-то, можно было и сделать, но не увидели надобности. В данный момент работает 16 узлов под Linux, остальные под Server 2008, и пользователям, не отправившимся на курорты, этого более чем достаточно.

Для данных есть два хранилища, одно из них высокоскоростное — Panasas, достаточно интересная разработка с кучей плюшек (5 терабайт), смонтировано по PanFS (нативная панасасовская технология), и низкоскоростное (подключенное по витухе) хранилище на 16 терабайт — Т-Платформы «NAS 3160».

Панасас используется для задач, для которых критично время записи на диск (в частности, использовали его для GAMESS/FireFly авторства господина Грановского), бОльший же агрегат используют в-основном физики, которые включат программу и уходят курить на недельку. :-)
Интересует как устроена система выдачи ресурсов пользователю и их лимитации.
Нет, Torque у нас на новом кластере. Это же — наша первая «птичка», и работает она с Cleo, разработкой всё того же Сергея Жуматия, о котором было сказано выше. + Windows HPC Cluster Job Manager.
По Torque я попробую сделать отдельный пост, в частности, про его взаимодействие с Матлабом.
Sign up to leave a comment.

Articles