Как стать автором
Обновить

Комментарии 14

Честно говоря, всё зависит от задачи. Если задача требует обработки огромных массивов данных (много больше оперативной памяти), которые требуют быстрого произвольного доступа по всему объёму, то это может помочь.

На МСЦ я несколько месяцев назад получил письмо, мол, люди, пожалуйста, не пишите со всех машин, использованных для расчёта в домашнюю директорию, смонтированную по NFS :). На самом деле, для многих действительно параллельных расчётов намного бОльшее значение имеет пропускная способность сети, нежели жесткого диска.
из того что написано в статье, узким местом являлось не пропускная способность сети
Зависит от решаемых задач :). К примеру, что касается тех расчётов, которые делаю я, содержимое моделируемой ячейки сначала полностью укладывается в оперативную память, а потом уже с ней производятся операции, тоже в оперативной памяти :). Учитывая разницу в латентности SSD (~40 мкс у Intel SSD) и памяти (~50 нс), непонятно, чем эти самые SSD могут помочь в данной ситуации.
наверное тем, что
в серверные материнские платы (однопроцессорные) влазит 6 планок оперативки, при объеме плашки в 4-8ГБ мы получаем «всего» 24-48 ГБ, а с применением SSD HDD получим 1Тб*кол-во разъемов для подключения.
В итоге быстрее чем механика ну и дороже :)
НЛО прилетело и опубликовало эту надпись здесь
Даже в Сан-Диего (не последнем месте) час рабыот даже заслуженного профессора не стоит 200 долларов.
Я полоагаю, у них задачи требуют частого обращения к случайным областям памяти. И полный объем их данных не укладывается в оперативную память. При использовании нормального кеша SSD дает большое преимущество на таких задачах (по сравнению с HDD). Конечно, сделать все на DRAMe, наверное, еще лучше, но, во-первых, цена, а, во-вторых, энергопотребление.
> На самом деле, для многих действительно параллельных расчётов намного бОльшее значение имеет пропускная способность сети, нежели жесткого диска.
для _действительно_ параллельных рассчетов сеть как раз таки практически не нужна :)))
Ну, как правило, параллельные процессы всё же должны обмениваться данными, причём иногда приходится обмениваться большим их количеством, иногда даже очень большим :). Вот тут и начинает требоваться сеть. Даже для такой банальной операции, как сборка результата тоже требуется сеть.
ну это хорошо, может популярность ускорит снижение стоимости на SSD
Свежо придание, да верится с трудом.
Хорошо перекликается с относительно недавней новостью про 100TB массивчик из SSD (http://www.nordichardware.com/news,9768.html)
Для монструозных баз данных за счет диких IO/s прирост должен быть ощутимый
в суперкомпьютерах — суперэнергообеспечение.

на их месте я сделаю 1 комп с данными(рэйд), а всё остальное загружу по сети в оперативную память кластера, это сократит издержки и стоимость в несколько раз.
У них проблема в том, что надо обрабатывать данные в реальном времени, а то, что вы описали — очень медленно.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории