Сначала обрадовался. А потом рассторился, цена очень высокая($1.5к в месяц), ну и куча ненужных нам фич вроде 1.6Тб сторэджа и 22Гб рама. Но все равно радует, что хоть кто-то начал предоставлять такой хостинг.
Мне кажется основной плюс Amazon-она в почасовой оплате. Вряд ли вам надо будет крутить такой инстанс постоянно, а вот запустить его на день — что бы по быстрому провести как-то расчет — пожалуйста — и стоить будет не так дорого
Возьмите сравнимый по вычислительно способности перемалыватель чисел на универсальных процесорах вы получите значительно большие затраты. Для сравнимой производительности double на XEON вам будет нужно несколько стоек, а здесь один слот пусть с немного большим энергопотреблением.
Да и AMD думаю с своими процесорами подтянется скоро, у них энєргоэфективность лучше.
Мало того уних уже 12-ти ядерники во всю продаются, когда только анонсировали 8-шку Xeon на следующий год.
Для параллельных задач процессоры — сказка.
Особенно греет душу недавно приехавший 4х процессорник на этих Оптеронах. :)
С моими задачами бывает к сожалению.
Но железка супер, при том что ощутимо дешевле чем аналогичный сервер на 6-тиядерниках Xeon.
Одна проблема: у нас их только под заказ из Европы везти.
Xeon популярен и только его фактически и везут.
Конечно Xeon вне конкуренции на плохораспаралелливаемых задачах за чем частоты и доп.инструкций.
Но к примеру на Postgre производительность растет пропорционально количество физических ядер (по заявлению разработчиков)…
Да и вообще задачи для Web-а любят много ядер.
Да, именно LA это я к тому, что при таком количестве ядер — очереди процессов ожидающих своего кванта почти не возникнет, т.к. все будут обрабатываться параллельно.
Может меня кто-нибудь тыкнуть в статью для тупых в которой рассказывается про эти сказочные приросты производительности от видеокарт? Пока что они мне видятся как 2 дополнительных фиговеньких процессора с суровыми ограничениями.
У M2050 448 потока по 575Мгц и пропускная способность шины с внутренней памятью(которой 3Гб) около 140Гб/c.
Для сравнения DDR3 дает не больше 53Гб/с (это в 3х канальном режиме).
Если необходимо проводить однородные операции над большим объемом данных, то это очень хорошее решение.
Я на реальных своих задачках получал на GTX470 прирост производительности ~20 раз по сравнению с такой же обработкой на Core2 Duo 3Ггц. При том что на GeForce искусственно затарможены опирации с даблами в 3 раза вроде.
Представьте себе, что вы находитесь в большом амазоновском дата-центре, и вам нужно срочно воткнуть в каждый десятый пару железяк. А через час выткнуть. И так каждый день.
На самом деле время от создания инстанса по его доступности — это то время за которое 100 китайских эникейщиков в амазоновском датацентре успевают собрать требуемую машинку :)
Я так понимаю GPU *какие-то конкретные вычисления* могут производить быстрее, чем CPU, так как они специализированы. И на компьютерах конечного пользователя софт (не графический) может использовать возможности GPU для выполнения общих задач (с сложностями и потерей части производительности, так как железо для этого не предназначено). Цель: раз пользователь купил GPU, то не простаивать же ему, пусть используется и для общих вычислений, что в общем-то верно.
А если железо специально выбирать для вычислений, то:
1) если вычисления общего назначения, то выгоднее брать больше процессоров общего назначения.
2) если вычисления долгие и очень специализированные, то выгоднее строить специализированное под эти вычисления железо.
А специально устанавливать GPU на сервер, для того чтобы использовать его для вычислений — странная идея, и имеет смысл только в очень узком кругу задач, когда GPU подходит для задачи лучше, чем CPU (то есть вычисления не общего назначения, а специализированные), но при этом вычисления не настолько велики, чтобы было выгодно создавать железо, оптимизированное для них.
А смысл в том, что суммарная производительность двух вышеописанных карточек NVIDIA Tesla “Fermi” M2050 GPUs при расчётах с плавающей точкой — до 1030 Gflops, а суммарная производительность обоих стоящих в этом же сервере процессоров Intel Xeon X5570 (по неофициальным подсчётам, но других нет) — 11 Gflops.
Т.е., одна такая карточка в распараллеливаемых задачах эквивалентна примерно 90 процессорам.
Может, конечно, я что-то нашёл неправильно, но такая карточка стоит около $2500. А такой процессор — около $1500.
Вы не застали времена хотя бы процессоров 80486?
Карты Tesla не используют в качестве CPU. Официально их ниша называется вроде бы GPGPU (General Purpose GPU). Но реально… помните, чем 486SX отличался от 486DX? Так и тут. Tesla — это в первом приближении математический сопроцессор.
Не заметил «при расчётах с плавающей точкой», теперь всё ясно. То есть это не чудо, что они так быстро работают, а следствие их специализации на операциях с плавающей точкой.
Ну назвали бы их тогда NVIDIA Tesla “Fermi” M2050 FPU.
На самом деле, если не, как я сказал, «в первом приближении», то всё ещё сложнее. Для них можно писать код фактически на С++, он может проводить вычисления с любыми типами данных, и т.п… Но запускаться этот код всё равно должен с центрального процессора. В целом, самое правильное было бы назвать их SPU — Stream Processing Unit.
Amazon Cluster GPU: Новое слово в мире Cloud-хостинга