Comments 22
Приятный рассказ, надеюсь продолжите в том же духе, делая акцент на технические моменты, а не бизнес, было бы крайне интересно.
Интегратор КРОК также ведёт деятельность в opensource-сообществе, но это уже не облачное подразделение.
Добавьте пожалуйста еще картинки для большей наглядности) Там схемы, сравнения, диаграммы и т. д.
В этот момент сочетание InfiniBand и All-flash дало нам совершенно дикую вещь — мы первыми на нашем рынке ввели услугу по дискам с гарантированной производительностью с жесточайшими штрафами, прописанными SLA. И на рынке на нас конкуренты смотрели с круглыми глазами.речь идет о локальном рынке? Ибо у того же AWS лимитирование по IOPS есть с очень давних пор.
Так все таки лимитирование или гарантия? Две большие разницы…
Технически гарантия достигается благодаря:
— использованию высокопроизводительных массивов, которые имеют большой ресурс по IOPS;
— нашему планировщику, который распределяет виртуальные диски по разным массивам в зависимости от того, на сколько те утилизированы, и того, сколько производительности должен предоставить данный виртуальный диск;
— лимитированием нагрузки на каждый отдельный виртуальный диск, чтобы расчеты планировщика не были напрасными.
А СХД я так подозреваю "массивы-скрипки"? До сих пор эксплуатируете или на что-то другое перешли?
Также параллельно смотрим, выбираем решение, которое со временем придёт им на замену. Недавно мы внедрили ещё один тип стороджа на магнитных дисках, который работает под управлением EMC ScaleIO. Мы позиционируем его как новый «универсальный тип дисков». Он имеет схожие с амазоновским st1 volume type характеристики: ограничен 500 IOPS, производительность в MB/s зависит от размера волюма, однако не имеет бёрстинга и может быть использован в качестве загрузочного диска.
Сейчас он ограниченно доступен в облаке, так как проходит обкатку.
По ScaleIO интересно. Слышал, что есть инсталляции в России, но без конкретики. Можете рассказать что используете для межнодового взаимодействия в кластере? Ethernet 10G? Сами ноды самосбор или брендовые сервера? Сам кластер ScaleIO используете только под хранение или совмещаете роли и на серверах гипервизары тоже крутятся? Что используете из OS на нодах ScaleIO? Что можете сказать про надежность из опыта эксплуатации? Проблемы с недоступностью или потерей данных случались? Если не секрет, то насколько большой кластер сейчас у вас по количеству нод и по полезной емкости? Просто что бы представлять масштабы действа и на сколько все серьёзно :).
Мы же скорее взяли Amazon API, как де-факто отраслевой стандарт и лучшую практику.
Что касается публичных цен, то мы в основном работаем со средним и крупным бизнесом.
А точнее с задачами по размещению в облаке business critical сервисов таких организаций.
В подобных проектах обычно используются не только вычислительные ресурсы из облака, но еще и услуги по расширенной технической поддержке, проектирование, бэкап, мониторинг и т.д.
Публичные цены хороши там, где сервис высоко стандартизирован, например, на рынке SMB и физических лиц.
Когда же проекты в облаке становятся хоть сколь-либо комплексными, то в публичных ценах теряется весь смысл.
Как в 2009 году мы начали строить облако, и где ошиблись