Pull to refresh

Comments 56

Лично меня удивило то что такие длительные вычисления обошлись так дешево.
Мне всегда казалось что создание подобных кластеров вещь намного более дорогостоящая.
получается примерно $1 в час с машины(8 ядер). Вполне ок. Месяц работы уже $720 стоит — время окупаемости у них получается совсем небольшое.
Да, при условии что все машины будут постоянно загружены 24/7, что требует наличия достаточного количества подобных заказов.
+ будут выделяться дни на обслуживание и ремонт машин, которое надо вычесть.
Genentech benefited from the high number of cores because its calculations were «embarrassingly parallel,» with no communication between nodes, so performance stats «scaled linearly with the number of cores,» Corn said.

Узлы не взаимодействовали, так что эту систему можно сравнить с настоящим кластером только с большой натяжкой. Стоимость быстрого интерконнекта может составлять до 50% стоимости кластера и это совсем не Ethernet.
Вспомнил замечания одного из преподавателей что некоторые задачи связанные с расчетом подобных связей хорошо распараллеливаются.
Я не знаю что именно они там из молекулярной динамики считали, но факт остаётся фактом: взаимодействия между узлами не было. Задача может хорошо распараллеливаться, но требовать взаимодействия между узлами. Так вот, если бы оно потребовалось, я сомневаюсь, что general purpose сетевая инфраструктура Amazon смогла бы обеспечить latency, необходимое для HPC. Именно поэтому я и говорю, что сравнение с настоящим кластером некорректно.

Если им не нужно взаимодействие, они могли бы выполнить свои расчёты на открытом проекте BOINC, но только проблема в том, что входные данные задачи являются коммерческой тайной.
между параллельными и распределенными вычислениями пропасть!

они построили суперкластер, а не суперкомпьютер.
Объясните свою точку зрения подробнее.
Имеется в виду что в супер-комьютерах используется архитектура shared-everything — т.е. все процессоры могут иметь read/write доступ к любой области памяти (оперативной и дисковой). То что было построено здесь — это по сути горизонтальный кластер построенный по архитектуре shared-nothing — т.е. у каждого из нодов своя оперативная и дисковая память. Такие кластеры могут использоваться только в тех случаях когда задача может быть разбита на несколько паралельных независимых подзадач. Называть это супер-компьютером действительно некорректно. Действительно просто большой кластер.

Сложность построения суперкомпьютеров как раз и заключается в организации одновременного сверх-быстрого обмена данными между оперативной памятью и всеми процессорами.
Имеется в виду что в супер-комьютерах используется архитектура shared-everything — т.е. все процессоры могут иметь read/write доступ к любой области памяти (оперативной [...]

Не говорите ерунды про вычислительные кластеры. Подавляющее большинство кластеров имеет распределённую память (RAM) и один узел не может писать в память другого узла, а может только передавать сообщения через сеть (например, при помощи MPI).

Хотелось бы от вас услышать, в чём по-вашему заключается разница между кластером и суперкомпьютером.
Сейчас капитан очевидность приведёт вам цитаты из википедии:
В настоящее время суперкомпьютерами принято называть компьютеры с огромной вычислительной мощностью («числодробилки» или «числогрызы»). Такие машины используются для работы с приложениями, требующими наиболее интенсивных вычислений (например, прогнозирование погодно-климатических условий, моделирование ядерных испытаний и т. п.), что в том числе отличает их от серверов и мэйнфреймов (англ. mainframe) — компьютеров с высокой общей производительностью, призванных решать типовые задачи (например, обслуживание больших баз данных или одновременная работа с множеством пользователей).

Иногда суперкомпьютеры используются для работы с одним-единственным приложением, использующим всю память и все процессоры системы; в других случаях они обеспечивают выполнение большого числа разнообразных приложений.

Взаимодействие через разделяемую память (например, в Java или C#). Данный вид параллельного программирования обычно требует какой-то формы захвата управления (мутексы, семафоры, мониторы) для координации потоков между собой.

Взаимодействие c помощью передачи сообщений (например, в Erlang или occam). Обмен сообщениями может происходить асинхронно, либо c использованием метода «рандеву», при котором отправитель блокирован до тех пор, пока его сообщение не будет доставлено. Асинхронная передача сообщений может быть надёжной либо ненадёжной.

Я это и так знаю, а вы не умеете читать то, на что отвечаете. В чём разница-то между кластером и суперкомпьютером?
суперкомпьютер для журналистов — то, что попало в hpp://top500.org

для специалистов — это понятие требует кучи уточнений.

На мой взгляд, BlueGene — суперкомп в большей степени, чем суперкластеры вроде Ломоносова. Но в меньшей, чем реконфигурируемые FPGA-кластеры.
Третий раз посторяю: определение суперкластера в студию (желательно со ссылкой на научную статью). Вы выдумали термин, а теперь всем голову морочите. Между прочим, по запросу «супркластер» этот топик на первом месте.
вот теперь, Ваш «супркластер» действительно на первом месте яндекса :) yandex.ru/yandsearch?text=%D1%81%D1%83%D0%BF%D1%80%D0%BA%D0%BB%D0%B0%D1%81%D1%82%D0%B5%D1%80&lr=213

про суперкластер: не могу понять, толи вы троллите, толи у Вас аллергия на приставку «супер»

а что по Вашему, дает отдельная сеть для барьерной синхронизации и т.д.? разве нужна она амазону? а в суперкомпьютеры ставят. или по Вашему мнению она там ради увеличения стоимости стоит?
А вы не тем ищете, в google правильное написание было на первом месте ещё вчера:
www.google.nl/search?q=%D1%81%D1%83%D0%BF%D0%B5%D1%80%D0%BA%D0%BB%D0%B0%D1%81%D1%82%D0%B5%D1%80&ie=utf-8&oe=utf-8&aq=t&rls=org.mozilla:en-US:official&client=firefox-a

Про суперкластер: я считаю, что вы придумали этот термин. Давайте ссылки на научные статьи с определениями: суперкластер, кластер, суперкомпьютер и объясните, наконец, в чём же, по-вашему, разница.

Отдельная сеть на основе, например, Infiniband, даёт маленький latency обмена сообщениями, чего не достичь при помощи Ethernet (я уже не говорю про bandwidth). Пример: часто в задаче требуется обмениваться сообщениями по принципу все-со-всеми после *каждой* вычислительной итерации, и на такой задаче этот «кластер» из топика даст не то что ускорение, а замедление вычислений по сравнению с последовательным вариантом.
если Томас Стирлинг на этот вопрос отшучивается, а моя точка зрения вас не удовлетворяет, чего вы хотите?

да блин! и астраномические суперкластеры тоже я придумал! и суперклей! платите мне за вывески «супермаркетов» и все будет супер!
А где ваша точка зрения? Где три определения (с объяснением различий), пусть даже вашего авторства? Невозможно вести сколько-нибудь серьёзный и конструктивный разговор если собеседник выдумывает термины (которым не даёт определения!) и считает это нормальным.
«На мой взгляд, BlueGene — суперкомп в большей степени, чем суперкластеры вроде Ломоносова. Но в меньшей, чем реконфигурируемые FPGA-кластеры.»

разве этого неравенства не хватает?
подсказка: посмотрите на топологии этих машин.
Извините, но у меня нет времени с вами играть в дедуктивный метод.
эх, а ведь одна из самых активных тем на всех суперкомпьютерных конференциях :) запишитесь, не пожалеете :)
Видимо вы на неправильные конференции ходите.
Что-то та ПАВТ-2011 я не помню этой темы… не попал на какую-то презентацию?
Хотя вопрос, скорее, академический — все решают задачи, и суперкомпьютер это нечто, умеющее решать одну большую задачу и созданное для этого.
а в нелинейке почти холивар на этом же павте подняли… или мы на разных были?
Видимо, да, попали на разные ветки. Там ведь все распараллеливалось, название конференции обязывает.
а окна MPI-2.0?
идеалогия FEB? (Full/Empty Bit)

или кроме С/С++ вы ничего не признаете?
RMA всё равно реализуется как посылка сообщения по сети. Я отвечал на:
т.е. все процессоры могут иметь read/write доступ к любой области памяти


При чём тут моё отношение к C (о котором я не говорил даже) — не понятно.
высшие hdl языки. такие как COLAMO

да и не только hdl
>Подавляющее большинство кластеров имеет распределённую память (RAM) и один узел не может писать в память другого узла, а может только передавать сообщения через сеть (например, при помощи MPI).

При чем тут вычислительные кластеры к архитектуре shared-everything? Почитайте внимательнее еще раз что написано. Если по-прежнему непонятно — увы, ничем не смогу помочь.
Не пишется, сколько бы потратила компания, если бы производила вычисления на своих, реальных машинах.
1250 восьмиядерных серверов конечно дороже. Но если такие расчёты вести постоянно, то конечно своё или даже арендованные сервера целиком будет дешевле.
Допустим можно было взять в аренду на месяц три hi-end сервера — было бы в районе 500 евро потрачено, но считалось бы месяц.
UFO just landed and posted this here
не пора ли пересмотреть время взлома паролей методом перебора?
Все равно выходит довольно дорого.
Не скажите. От пароля зависит, точнее от того к чему он.
Для подбора WPA пасса недавно интересовался, вот что получается:

$0.08 с/h — ~275 k/s (Standard On-Demand Instances Small)
$0.34 с/h — ~700 k/s (Standard On-Demand Instances Large)
$0.68 с/h — ~1650 k/s (Standard On-Demand Instances Extra Large)
$0.02 с/h — ~20-400 k/s (Micro On-Demand Instances Micro)
$0.17 с/h — ~1100 k/s (High-CPU On-Demand Instances Medium)
$0.68 с/h — ~5200 k/s (High-CPU On-Demand Instances Extra Large)
$1.60 с/h — ~7200 k/s (Cluster Compute Instances Quadruple Extra Large)

с/h — cost per hour (стоимость инстанса в час), k/s — keys per second (кол-во пассов в секунду).

Если увеличивать количество инстансов, скорость подбора будет увеличиваться пропорционально но стоимость будет такая же.

Мне нужно было подобрать пасс к хешу 10 значного числа (я знал его зараннее), получилось бы около $300.
Для информации, на i7 (вроде 920) было 3000 k/s.
66/1.5 = 44 GPU Geforce 580, по две в каждую машину, всего 22 компа. цена такого кластера будет ~ $50k — в 6 раз больше чем амазону отдали, зато навсегда.
А также тысячи человеко-часов программирования и тестирования для переноса CPU кода на GPU — сколько это k$?

Когда закончите переписывать GROMACS на GPU — скажете.
Уже.
www.nvidia.ru/page/gromacs_on_tesla.html
(Перейдите уж по ссылке, там много чего есть)
Если интересна не только молекулярная динамика, то
www.nvidia.com/object/tesla_bio_workbench.html

Правда это тесла а не Geforce 580. На джифорсах я бы считать динамику не стал — когда вычисления занимают сутки, большая вероятность сбоя, видюхи на другие режимы и другое число ошибок рассчитаны.
Не все так замечательно как об этом пишет NVIDIA. Во первых, только с одинарной точностью. Во вторых, это «теоретические» GFLOPS'ы которые считаются по хитрой формуле и явно далеки от реальных.
а ключи компилятора на переход в двойную точность запретили набирать?
А давно с помощью ключей компиляции мы научились менять архитектуру? Шейдерные процессоры спроэктированны для работы с числами одинарной точности и это заложено в их реализаци. С помощью ключей мы может дать понять компилятору, что нам нужна двойная точность, но выполняться это будет с помощью большего кол-ва операций и GFLOP's резко превратятся в MFLOP'sы.
у вас интернет под рукой, а вы чушь порите, не погуглив…

у видюх меряют две производительности: в двойной и одинарной точности. на gtx200 модулей двойной было в 8 раз меньше, начиная с Fermi поровну, что почти сравняло производительности в дабле и флоате.
у тесел дабл в 2 раза медленнее (у пользовательских в 8 раз)
прежде чем минусовать, посмотрите на название этих ключей. они МЕНЯЮТ архитектуру в ПРЯМОМ смысле!
Amazon, а не Amazone, не позорьтесь.
И добавьте ссылку на оригинальную новость.
что же останавливает? :)
если есть задачи для таких мощностей и финансовые ресурсы, то проблем нет никаких.
Он по ошибке запятую поставил.
Интересно, хватит ли $10K, чтобы напрячь Амазон настолько, что мощностей станет не хватать для других важных клиентов? А $50K?
А какже Folding@home? Разве они тоже не подсчитывают белковые связи? Да и кластер у них по круче будет и по дешевле.
Sign up to leave a comment.

Articles