Amazon Cluster GPU: Новое слово в мире Cloud-хостинга

    image Амазон анонсировал Cluster GPU instance — HPC инстанс с двумя NVIDIA Tesla “Fermi” M2050 GPU — для любителей действительно «быстрых» вычислений.

    Компания NVIDIA, давно уже продвигает свою идею переноса тяжелых вычислений с основного процессора на GPU, благо по мощности современные GPU не уступают — а иногда и превосходят стандартные CPU. Есть железо, есть платформы для разработки, не было (по крайней мере я не знал) хостинга, где бы это все можно было бы запустить.

    И вот один из основных игроков на рынке Cloud хостинга — Amazon анонсировал досутпность Amazon Cluster GPU instance. Согласно ссылке спецификация инстанса следующая:
    * 22 GB of memory
    * 33.5 EC2 Compute Units (2 x Intel Xeon X5570, quad-core “Nehalem” architecture)
    * 2 x NVIDIA Tesla “Fermi” M2050 GPUs
    * 1690 GB of instance storage
    * 64-bit platform
    * I/O Performance: Very High (10 Gigabit Ethernet)
    * API name: cg1.4xlarge

    Обещанная пиковая производительность: one trillion double-precision FLOPS (специально скопипастил из анонса что бы не ошибиться в нулях :) )

    цена вопроса: $2.10 за час
    AdBlock has stolen the banner, but banners are not teeth — they will be back

    More
    Ads

    Comments 51

      0
      Суровая штука.
        +2
        Сначала обрадовался. А потом рассторился, цена очень высокая($1.5к в месяц), ну и куча ненужных нам фич вроде 1.6Тб сторэджа и 22Гб рама. Но все равно радует, что хоть кто-то начал предоставлять такой хостинг.
          +3
          Мне кажется основной плюс Amazon-она в почасовой оплате. Вряд ли вам надо будет крутить такой инстанс постоянно, а вот запустить его на день — что бы по быстрому провести как-то расчет — пожалуйста — и стоить будет не так дорого
            0
            Если вы занимаетесь этими расчётами более-менее профессионально, может проще свою железку на колокейшен поставить ???
              0
              если более менее профессионально — то да — Амазон дорого будет
                0
                А может все-таки Rackspace?
                  0
                  О боже, как они меня злят. Хотя амазон со своим облаком косячит на порядки больше.
                +7
                Пересчитайте стоимость такой железки и стоимость ее колокейшена во времени, тогда и поговорим ;)
                  0
                  а если нужно, скажем, раз в неделю пересчитать какой-то дикий объем данных, после чего неделю спокойно живем? это ведь реальный сценарий.
                0
                ну если надо что-то быстро посчитать, то самое оно
                  0
                  А где вы вычесленные х знаков после запятой числа пи будете хранить?
                  –5
                  >2 x NVIDIA Tesla “Fermi” M2050 GPUs
                  факториалы считать?
                  • UFO just landed and posted this here
                    +1
                    FERMI? Расходы на охлаждение и электроэнергию там, наверное, сказочные.
                      +4
                      Возьмите сравнимый по вычислительно способности перемалыватель чисел на универсальных процесорах вы получите значительно большие затраты. Для сравнимой производительности double на XEON вам будет нужно несколько стоек, а здесь один слот пусть с немного большим энергопотреблением.
                      Да и AMD думаю с своими процесорами подтянется скоро, у них энєргоэфективность лучше.
                        0
                        Мало того уних уже 12-ти ядерники во всю продаются, когда только анонсировали 8-шку Xeon на следующий год.
                        Для параллельных задач процессоры — сказка.
                        Особенно греет душу недавно приехавший 4х процессорник на этих Оптеронах. :)
                          0
                          12х4=48 ядер %) там вообще Load Aveerage бывает больше 0?
                            +1
                            С моими задачами бывает к сожалению.
                            Но железка супер, при том что ощутимо дешевле чем аналогичный сервер на 6-тиядерниках Xeon.
                            Одна проблема: у нас их только под заказ из Европы везти.
                            Xeon популярен и только его фактически и везут.
                            Конечно Xeon вне конкуренции на плохораспаралелливаемых задачах за чем частоты и доп.инструкций.
                            Но к примеру на Postgre производительность растет пропорционально количество физических ядер (по заявлению разработчиков)…
                            Да и вообще задачи для Web-а любят много ядер.
                              0
                              у нас 2 Xeon'a Six-core и 12 гб памяти, htop показывает 24 ядра и htop 4.7 load_average :)
                                0
                                Ну это от того, что там Hyper-threading, который не во всех случаях сравним с полноценным дополнительным ядром
                                0
                                Вы точно имеете в виду Load Average? С чего ему не быть больше 0?
                                  0
                                  Да, именно LA это я к тому, что при таком количестве ядер — очереди процессов ожидающих своего кванта почти не возникнет, т.к. все будут обрабатываться параллельно.
                            0
                            В Сибирь их надо. Там холодно и эл/эн с ГЭС дешевая.
                              0
                              в идеале — на берег белого моря и запитывать от приливной электростанции

                              охлаждать можно морской водой
                            +1
                            цена вопроса: $2.10 за час


                            За процессорный час? Или за весь инстанс?
                              +1
                              За весь инстанс
                              +10
                              Интересно, лицензию на Elcomsoft'овские брутфорсеры на GPU можно опцией докупить? :)
                              • UFO just landed and posted this here
                                  0
                                  Может меня кто-нибудь тыкнуть в статью для тупых в которой рассказывается про эти сказочные приросты производительности от видеокарт? Пока что они мне видятся как 2 дополнительных фиговеньких процессора с суровыми ограничениями.
                                    +2
                                    У M2050 448 потока по 575Мгц и пропускная способность шины с внутренней памятью(которой 3Гб) около 140Гб/c.
                                    Для сравнения DDR3 дает не больше 53Гб/с (это в 3х канальном режиме).
                                    Если необходимо проводить однородные операции над большим объемом данных, то это очень хорошее решение.

                                    Я на реальных своих задачках получал на GTX470 прирост производительности ~20 раз по сравнению с такой же обработкой на Core2 Duo 3Ггц. При том что на GeForce искусственно затарможены опирации с даблами в 3 раза вроде.
                                        0
                                        например, я участвую в dnet.

                                        скорость шестиядерного фенома — 75 попугаев, скорость amd radeon 5750 — 700 попугаев. А видюха-то еще и стоит в 3 раза дешевле
                                          0
                                          Если будет возможность добавлять GPU отдельной опцией в другие инстансы — будет отлично.
                                            0
                                            На амазоне вряд ли — у них только «стандартные» конфигурации без опций — опции только в виде доп сервисов (типа CloudWatch, Load balancing и пр.)
                                              0
                                              Для добавления таких GPU отдельной опцией придётся в соответствующие сервера всего лишь воткнуть пару железяк стоимостью по $2500.
                                                +1
                                                Представьте себе, что вы находитесь в большом амазоновском дата-центре, и вам нужно срочно воткнуть в каждый десятый пару железяк. А через час выткнуть. И так каждый день.
                                                  +1
                                                  На самом деле время от создания инстанса по его доступности — это то время за которое 100 китайских эникейщиков в амазоновском датацентре успевают собрать требуемую машинку :)
                                              0
                                              Для добавления таких GPU отдельной опцией придётся в соответствующие сервера всего лишь воткнуть пару железяк стоимостью по $2500.
                                                0
                                                Brute force never been so easy!
                                                  0
                                                  and expensive
                                                    0
                                                    Как я уже подсчитал ниже — это очень дёшево.
                                                    Одна карточка в этом сервере стоит в полтора раза дороже процессора, а считает в 90 раз быстрее.
                                                      0
                                                      Я имел ввиду сравнение не с процесором, а с аналогичной карточкой, которую можно купить.
                                                  0
                                                  А в чем смысл?

                                                  Я так понимаю GPU *какие-то конкретные вычисления* могут производить быстрее, чем CPU, так как они специализированы. И на компьютерах конечного пользователя софт (не графический) может использовать возможности GPU для выполнения общих задач (с сложностями и потерей части производительности, так как железо для этого не предназначено). Цель: раз пользователь купил GPU, то не простаивать же ему, пусть используется и для общих вычислений, что в общем-то верно.

                                                  А если железо специально выбирать для вычислений, то:
                                                  1) если вычисления общего назначения, то выгоднее брать больше процессоров общего назначения.
                                                  2) если вычисления долгие и очень специализированные, то выгоднее строить специализированное под эти вычисления железо.

                                                  А специально устанавливать GPU на сервер, для того чтобы использовать его для вычислений — странная идея, и имеет смысл только в очень узком кругу задач, когда GPU подходит для задачи лучше, чем CPU (то есть вычисления не общего назначения, а специализированные), но при этом вычисления не настолько велики, чтобы было выгодно создавать железо, оптимизированное для них.
                                                    +2
                                                    А смысл в том, что суммарная производительность двух вышеописанных карточек NVIDIA Tesla “Fermi” M2050 GPUs при расчётах с плавающей точкой — до 1030 Gflops, а суммарная производительность обоих стоящих в этом же сервере процессоров Intel Xeon X5570 (по неофициальным подсчётам, но других нет) — 11 Gflops.
                                                    Т.е., одна такая карточка в распараллеливаемых задачах эквивалентна примерно 90 процессорам.

                                                    Может, конечно, я что-то нашёл неправильно, но такая карточка стоит около $2500. А такой процессор — около $1500.
                                                      0
                                                      Цена выше в полтора раза, а вычислительная мощность в 90 раз. В чем же ловушка?

                                                      В таком случае, почему не выпустят процессоры, основанные на той же технологии, что и NVIDIA Tesla “Fermi” M2050 GPU?

                                                      Зачем делать их в формате GPU, если всё равно используют их в качестве CPU?
                                                        0
                                                        Вы не застали времена хотя бы процессоров 80486?
                                                        Карты Tesla не используют в качестве CPU. Официально их ниша называется вроде бы GPGPU (General Purpose GPU). Но реально… помните, чем 486SX отличался от 486DX? Так и тут. Tesla — это в первом приближении математический сопроцессор.
                                                          0
                                                          Не заметил «при расчётах с плавающей точкой», теперь всё ясно. То есть это не чудо, что они так быстро работают, а следствие их специализации на операциях с плавающей точкой.

                                                          Ну назвали бы их тогда NVIDIA Tesla “Fermi” M2050 FPU.
                                                            0
                                                            На самом деле, если не, как я сказал, «в первом приближении», то всё ещё сложнее. Для них можно писать код фактически на С++, он может проводить вычисления с любыми типами данных, и т.п… Но запускаться этот код всё равно должен с центрального процессора. В целом, самое правильное было бы назвать их SPU — Stream Processing Unit.
                                                    0
                                                    А 3дмакс он умеет рендерить?
                                                      0
                                                      Скорее лучше задать вопрос, сможет ли здмакс использовать их?

                                                    Only users with full accounts can post comments. Log in, please.