Как стать автором
Обновить

Комментарии 41

На фотке Чак Норрис, да?
Чак Норрис минуснул тебя на -20 за такое оскорбление
Боюсь, это не предел. Так что да, ляпнул, так ляпнул. )
Смотрите-ка, живой еще.
Отличные комментарии по теме «Сортировки»! Отличный юмор! Отличный Хабр!
В присутствии Чака Норриса алгоритм сортировки работает в 40 раз быстрее.
Несмотря на то, что товарищ похож много на кого (тут коллеги уже предложили версии и про Чака, и про Брюса Шнайера, и даже зачем-то Марка Руссиновича вспомнили), на самом деле это относительно неизвестный широкой публике Джереми Элсон, занимающийся тихонько параллельными вычислениями еще со времен Microsoft Virtual Earth.

Ваш К.О.
А если устремить количество дисков и серверов к бесконечности — можно ли достигнуть ещё более лучших результатов при прежних алгоритмах?
Думаю, тут всё упрётся в пропускную способность одной из составных частей — жёсткие диски, сеть, память… Хотя запас, думаю, ещё есть.
Ну насколько закон Амдала позволит, я думаю.
Именно потому что нельзя, в условиях конкурса и нет ограничений на количество железа. Только на класс — потребительские или сделанные на заказ узлы кластера.
Как-то «обычные компьютеры из магазина» слабо соотносится с кластером из 250 машин, пусть даже и собранным из этих самых обычных компьютеров, нет? Я просто не в теме, но интересно — разве категория Daytona не должна отображать результаты, которых сможет добиться обычный юзер на обычном компьютере, а не на запредельно мощном железе?
Нет, не должна. Сходите на сайт sortbenchmark, почитайте правила и таблицы результатов. Все участники — или университеты или корпорации. Для обычных юзеров не та весовая категория.
А что Вам мешает купить в магазине 250 серверов или ПК и собрать из них кластер? (кроме финансов конечно)
Ну даже при условии что это будут 1U сервера, это потребует ОЧЕНЬ много места, хорошую вентиляцию (хотя бы), много электричества, сетевого оборудования, проводов и т.д.
В любом случае никто не обещал условий реализации в рамках квартиры. Сказано только про оборудование которое можно купить в свободной продаже.

А 250 с серверов это уже небольшой ДЦ — действительно. Около 10 стоек, учитывая инфраструктуру и не 100%ую плотность размещения
Это вы как-то сильно загнули. Стандарт для 1U — порядка 37-40 серверов в стойке — то есть 7 стоек.
ну это зависит от охлаждения — это больше 10кВт на стойку, далеко не стандартный ДЦ.

+ для коммутации понадобится куча сетевого оборудования которое может занять не одну даже стойку. С округлением не меньше 10 )
Для коммутации требуется по одному 48-портовому свичу на стойку. Занимает 1-1.5-2 юнита.

Впрочем, к обсуждаемому топику это все вряд ли относится: я с трудом могу сказать, что даже 10 гигабит сейчас заняли сколько-нибудь часто встречающееся и доступное положение. До сих пор мейнстрим все-таки «гигабитные порты, транк из n*10-гигабит для интерконнектов». Вендоров, у кого есть доступные 48-портовые 10-гигабитные свичи можно пересчитать по пальцам (например, Niagara), стоит оно относительно космических денег. У тех же Cisco, поправьте меня, если я ошибаюсь, 10-гигабитные свичи будут на порядок более громоздкие, дорогие и в стоять будут в отдельных стойках фактически.
когда говорят, что кластеры собираются из доступных компонентов, не имеют ввиду из мусора. Эти компоненты не должны быть штучными самое главное. Партии от 1000 единиц какого либо элемента, уже наверное будут считаться доступными.

Our cluster’s computers are a mix of HP and Dell sys-tems with a range of RAM (24GB to 96GB) and CPUs (2 to 12 cores). The compute nodes had a single local
disk, used only for operating system files. Storage nodes had one operating system disk plus between 5 and 16 FDS data disks used for sort data. These disks had a
range of capabilities: primarily (78%) 10K RPM dual-port SAS disks, but with some 22%) 7,200 RPM SATA disks. Each computer is networked using 10G (10 giga-bit/sec) Ethernet connected in a full-bisection-bandwidth CLOS network [5]. The interconnect is 22×Blade G8264 switches, each of which has 64×10G Ethernet ports. Most computers had a dual-port 10G NIC (an In-tel X520 or HP NC522SFP), though some of the storage nodes used only a single port. All computers run Win-dows Server 2008 R2 SP1.

Говорят, что высокий результат в соревновании был обеспечен в основном высокоскоростной сетью, то есть благодаря 10G.
У меня на все это нашлось только слово. «Круто!»
Так беден ваш словарный запас?
Это называется лаконичность… или даже лапидарность.
Помнится, Ильф и Петров это называли по-другому.
А почему результат в Indy получился меньше, чем в Daytona, если там нет ограничений по железу?
Отсутствие формальных ограничений не значит отсутствие ограничений вообще. У каждой команды небесконечный бюджет. Главное — показать результат лучше, чем у конкурентов. Но уж теперь, я думаю, в Indy в лепёшку разобьются, чтобы не позориться :)
Указан старый рекорд для Daytona — 1353 Гб. А ребята сделали 1401 Гб на Indy. Сколько у них получилось бы на Daytona можно только гадать )
То есть они побили Daytona, совершенно не предпологая это делать )
1353 Гбайт это прошлогодний рекорд установленный Калифорнийским университетом
А я когда увидел название топика почему-то представил зал, полный китайцев рабочих, сортирующих миллионы распечатанных листков с цифрами :)
Жесткий у вас юмор, сударь.
И причем тут сеть сортировки?
"… в котором необходимо за минуту прочитать с диска и сортировать как можно большее число записей и сохранить результат в файл..."

Простите, с одного диска и в один файл?
>команда Microsoft Research использовала сетевую файловую систему

Интересно, какую? Неужели CIFS?
То есть протокол конечно же.
Огорчился, прочитав топик. Ожидал увидеть какой-нибудь новый хитрый алгоритм сортировки
Зачем же огорчаться? Тут радоваться надо, что нынешние сети позволяют работать с данными, как с локальными и не натыкаться на ограничения Map/Reduce.
Тогда зачем нужен erlang если как не писать на нем Map/Reduce?
Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.