Pull to refresh
0
0
Send message
Да, коряво вышло. Имелось в виду, похоже, SAN :) На западе можно называть это не устройствами, а SANом.
Так и есть. В скором времени будет представленно ПО, которое автоматизирует работу буферной зоны. Как для операция чтения, так и операций записи дял мультузловых (!!!) конфигураций.
Есть сменные набортные платы на базе Intel или Broadcom, 4x1Gbit или 2x1Gbit + 2x10Gbit, медь или оптика, с поддержкой FCoE и виртуализация (SR-IOV или NPAR). Ну и напихать в слоты, если что )
Для этого существует DAS/SAN хранилища, а если требуется высокая производительнолсть локальных дисков — PCE-SSD.
туда ставится всё, что угодно — SATA, SAS, SSD, SD-карточки, PCI-SSD (express flash и FusinIO), встроенные сетевые платы поддерживают SAN Boot (FCoE, iSCSI). Чего вам не хватает?
А мне кажется полезно тем, кто хочет посмотреть смысл с точки зрения цены производительности перехода с HDD на SSD или PCE flash памяти. А Storwize-like штуки тут никто не сравнивал. Сравнивает чистый DAS.
На фото PCI-e контроллер который разбивает x6 на 4шт. x4 канала. Флеш-память выполнена в форм-факторе 2.5 жётского диска с горячей заменой. Это уникальное для основных производителей x86 серверов решение, т.к. в отличии от того же Fusion IO позволяет производить горячую замену/расширние. Стандартное решение с PCI flash выполняются же в виде просто PCI-E платы и соответственно занимают n слотов. А тут всегда один слот и масштабирование от 1 до 4.
Упс, забыл представиться — Dell :) и заодно опечатался, не 300, а 350. Т.е. можно до 4 по 350Гб сделать на топовых моделях (R720, R820).

Производительность есть маркетинговая (не будем её тревожить :) ), есть whitepapers с замерами по конкретным случаям (SQL, Exchange, Oracle RAC) — там в основном смотрят на TPS или отклик. Достигают в 2-3 раза больше, чем обычно.

Надавно в офис привезли ситему с поддержкой — как раз думад прогнать тесты, чтобы сравнить с Fusion-IO, которые мы поставляем. Если на выходных удастся, то выложу пост. Пока на уме RHEL + fio/ORION
Мы, кстати, выпустили весной аналогичную FusioIO опцию — Express Flash. Тот же флеш на PCIe, но с возможностью хот-плаг и в перспективе загрузки с носителя. Из интересного — подключается к шине через одну плату (x16) до четырёх модулей (x4) и экономит слоты. Выбор объёмов только маловат пока — 175 и 300Гб.
Выше в начале добавил ответ.
1) Так увлёклись облачным словоблудием, что забыли про главное — вопросы по самому продукту.
Итак, горячая замена в модуле хранения C8220XD реализуется выдвижением корпуса с дисками из оболочки модуля с сохранением коммутации и питания. Т.е. сам C8220XD представляет из себя мини-шасси, из которого можно выдвинуть сам корпус с дисками без их отключения. Лучше увидеть на тюбе

Также есть возможность горячей замены в модуле C8220X в версии без поддержки GPGPU. В статье опечатка. В C8220X горячая замена есть у двух дисков (с морды доступных), остальные без горяей, но с быстрой доступностью без инструментов.

2) на модуле C8220XD есть 4 порта SAS (2 порта с двух экспандеров) и через них можно подключать остальные модули C8220X и C8220 с установленными мезанинами LSI.
Не спешат, верно. С только продуктовой точки зрения почти всегда появляется подобный негатив, многие блейд-системы начинают ставить в пику, многие — стандартные системы. Обычно в проектах где они появляются начинают с характеристик дата-центра или задач, потом PUE, TFLOPS/Rack/Unit, Вт и прочее. И довольно часто получается выгода именно от (возьму шире, чем объект статье) shared infrastructure системы оказываются более удобными и целесообразными, чем рэк или блейд (банально плотнее+менее потребляющее). Среди shared infrastructure систем много моделей и сегодня рассказ шёл про C8000.
Какие же вы неугомонные. Где тут написано, что это облачная система? В статье слово облако встречается 6 раз — 4 раза в описании гипотетического провайдера, который может оказывать «облачные» услуги в понимании «как сервис» + два раза в описании типовых задач. Это компонент для построения в т.ч. и облачных инфраструктур.
По нашему опыту в РФ и в целом опыту Dell DCS в мире 1-2U системы в многоузловых окружениях уступают место специализирвоанным системам, т.к. изначально проектировались больше как standalone. Вышеуказанная HP SL, а также многие модели SuperMicro (+ другие вендоры) также покрывают тот сегмент. Ему дали имя density optimized (на равне с rack, tower, blade).
Опять же, облачная модель использования инфраструктуры — один из вариантов. Помимо этого в статье присутствуют и другие. Да и если для микроплатежей понадобится многоузловая система с, к примеру, хорошей фермой для веб-морды и процессинга транзакций, то очень даже PowerEdge C может подойти. Не обязательно модель C8000, но C6220 (a la double twin) вполне.
Так и не мешаем ))) Предлагаем выбор!
Всё верно, но вы проецируете свойства системы только на задачу организации облачной инфраструктуры. Помимо этой задачи, в статье описаны и HPC, и хостинг, и Big Data-решения и пр. Если у вас только хостинг — берите много маломощных узлов, ставьте Parallels (недавно, вроде сертифицировали линейку PowerEdge C) и предоставляйте. Если HPC для задач готовых к GPGPU — ставьте модули с GPGPU. Вся прелесть в этом и заключается — на этой платформе можно реализовывать множество сценариев.
Данная система предлагается как конструктор. Бегать и менять конфигурации, действительно, не самое лучшее сравнение :) (хотя такой сценарий нельзя исключать). Скорее имеется в виду возможность гибко подбирать необходимые конфигурации под конкретные роли и задачи узлов.
Похоже, ещё нашёл там Force 10. Где-то на wired читал, что у них и собственные есть — Pluto.
Новое поколение, смотрю, на Dell PowerEdge делается? На фотографии справа R510 сервер.
1

Information

Rating
Does not participate
Location
Москва, Москва и Московская обл., Россия
Registered
Activity