Pull to refresh
19
Вадим Болотнов@BoVados

User

6
Subscribers
Send message
При создании контейнера в системе резервируется место от 15 до 50% общей свободной ёмкости именно по этой причине. При этом процент выбирается исходя из профиля нагрузки, например 15% резерва для чтение/запись 80/20 и 50% для 0/100. Это, конечно, уменьшает доступное пространство, но главная задача таких систем – производительность, пусть и в угоду ёмкости.
Цена высокая (ниже в комментариях, кажется, ошиблись на порядок), но при этом получается значительно дешевле в сравнении с mid-range и hi-end массивы с таким же уровнем IOPs построенными на базе большого количества дисков SAS 15000 обр/мин, и даже дешевле конфигураций, где аналогичная производительность получается путем различных «хитростей» в виде кеширования наиболее «горячей» информации на SSD. По состоянию месяц назад система обеспечивала самый дешевый IOPs в галактике. По конкретике — надо писать на почту, потому что вендор имеет гибкую политику скидок под конкретные проекты.
Олег, это неправда, контроллера всегда 2, я указывал, что все компоненты HotSwap и дублированы. Единственный «одинарный компонент» — это шасси. Я бы предпочел в дальнейшем придерживаться правдивой дискуссии либо завершить ее.
3000-я серия выпускается только как oem HP в России. При одинаковой их стоимости и заверении вендора, что именно 6000-я линейка станет основой для будущих архитектур, не вижу смысла для заказчика ее покупать. 6000-я серия была сертифицирована для продажи в России только в конце прошлого года, а вообще в мире давно. Результаты тестирования обязательно выложу в отдельной теме с множеством графиков и реальных цифр. Хочу побольше различных тестов провести.
К сожалению, все тесты в документе выше на «IOPS and latency with 4k random reads». В чтении действительно все решения хороши. Violin нам понравился за результаты на реальном профиле нагрузки, а это обычно 60:40. Writes:Reads
Да, и у нее все компоненты дублированы и hot swap, они учли проблемы предыдущей серии.
Директор по продажам Violin в нашем регионе сказал, что только что узнал это от меня :)
Нет, новая линейка в текущем году будет только у КРОК.
Это система на SLC Violin Memory 6606.
Не совсем так. Hp — это только прошлая линейка oem.
На наш взгляд, Violin имеет выгодное отличие в архитектуре — прежде всего то, что это не классические SSD-диски, а чипы. К другим нашим «любимым вендорам» мы тоже присматриваемся.
Действительно, в случае с Violin обычно это десятые доли милисекунды, в худшем случае (для создания которого мы специально систему нагружаем) – милисекунда. Потому мы и написали «около 1 мс». Возможно, правильнее было бы написать «до 1мс». А вообще для SSD одна милисекунда — это ну очень хорошо.

По поводу «столько сколько нужно» — мы и пишем, что в каких то случаях это реально может быть дороже. Для того и проводится тест-драйв, чтобы рассказать, в каких случаях система будет эффекетивна. В любом случае, SSD это всегда недешево, и в 10 раз дешевле она не будет.
Вот тут есть (поиск по странице по слову Avamar). Осторожно, топик тяжелый по трафику.
Вопрос к нему. В списке участников пока нет, но если будет заявка — не вопрос. Только он, судя по профилю, в Петербурге.
Простите, промахнулся веткой, ответ ниже. Немного разные классы решений.
Действительно, NetApp MetroCluster схоже с EMC VPLEX, но оно немного другого класса. VPLEX масштабируется до 8 контроллеров в каждом ЦОД. В решениях уровня Enterprise двух контроллеров NetApp может быть просто недостаточно. К тому же, по слухам, в мае нас ждет релиз версии VPLEX, организующей синхронный доступ более, чем в двух ЦОД.
Да, находясь в разных ЦОД, он дает возможность читать и записывать данные в обоих ЦОД, следя за их целостностью, т.е active/active кластер. Это очень полезная функция, позволяющая, например, не просто держать резервный ЦОД, а полностью использовать его мощность.
С одним ЦОДом всегда не так чудесно. Но, допустим, что выключилась именно стойка с VPLEX. Достаточно перебросить дисковые тома «напрямую», т.к. сам VPLEX не вносит никакой служебной информации и не меняет формат ее хранения. Однако, практика показывает, что скорее выключится весь ЦОД.
1. Нагружали виртуалками на 50 000 iops, но уперлись в производительность систем хранения, VPLEX при этом был загружен где-то процентов на 20. Это вдобавок к нескольким реальным внедрениям, в одном из которых заказчик (сфера телерадиовещания) ставил жесточайшие требования по отказоустойчивости ввиду невозможности прерывать эфиры ни на секунду даже в случае отказа ЦОД.

2. Уникальность в целостности решения. VPLEX виртуализует СХД различных производителей, работает с большинством ОС и приложений прозрачно для администраторов. Другие продукты дадут вам что-то из этого, но со временем есть риск потерять контроль над «зоопарком». Это ощущается начиная с определенного уровня сложности инфраструктуры компании.
Нужно понимать, что это не только софт и лицензии. Это по стойке минимум в каждом из двух ЦОДов. И железо в этих стойках — только под задачу виртуализации сети хранения. Такое решение на несколько сотен виртуальных серверов стоит около полумиллиона долларов, но зато очень сильно режет расходы на покупку репликации, кластерных лицензий и так далее, не говоря уже о сокращении времени простоя и других плюсах виртуализации в целом. Проще говоря, если ваши расходы на простой или неполное использование ресурсов больше стоимости софта, лицензий, железа и места в ЦОДах — то решение будет выгодным. Или если вы оцениваете потери от аварии или неправильного переезда в достаточно большую часть этой суммы.

Information

Rating
Does not participate
Works in
Registered
Activity