Pull to refresh

Comments 69

Добавьте в заголовок и/или анонс, что исследования велись лишь в плане Windows-решений.
Можно добавить в заголовок, что российских. А то удивился, сначала, что Амазона нет.
Спасибо за обзор.
Parking… NetApp различные модели с SAS и SATA дисками, всегда 2 контроллера… RAID (инф. Не выдал)

Если NetApp, то у них RAID-DP у всех. Другие типы сейчас просто не используются.
Спасибо, за поправку. Мы используем NetApp.
Большая работа! Вы молодец, спасибо за информацию!
Прекрасная работа, спасибо!
Интересно было бы в продолжение темы сравнить цены на такую же конфигурацию у зарубежных сервисов.
*с зарубежными сервисами
планируем в ближайшее время занятся подобным сравнением
Интересно, откуда в России внезапно появилось так много TIER 3 ДЦ? Или там пропущена фраза «не сертифицирован»?

И странная любовь к Juniper SRX 100 и 210 в ДЦ. Они в стойку не монтируются. Уши к ним в России, насколько мне известно, официально не продаются. Вилка питания у них тоже не очень для ДЦ.
это то что отвечали облачные операторы. Возможно, ДЦ TIER 3 реально не все сертифицированны.
Надо было задать вопрос по сертификации ДЦ.
Спасибо за подсказку на будущее.
Слышал от представителей Мегафона, что у них построен TIER3 ДЦ в Мурманске и на данный момент идет сертификация его.
В России и в Москве сертифицированных очень мало. Большинство говорит, опуская этот момент.
Ну вот я и говорю, что по их словам идет сертификация и что он полностью соответствует всем стандартам.
Мало, потому что построить по 3 тьеру, что бы пройти сертификацию стоит очень дорого. Реально у всех 2 и 2+. Честных 3 тьеров штуки 4 на страну.
UFO just landed and posted this here
Пробовали DataLine… подобрали алокейшн пул примерно совпадающий по параметром с нашими текущими железными серверами (не сильно то и нагруженными), после миграции оказалось, что проца в облаке нам нужно в 3! раза больше. По деньгам это почти в 5 раз дороже, чем в нашем совсем не дешевом европейском датацентре. В общем, заплатили 48к, развернулись и ушли. Чтоб я еще хоть раз в жизни связался с российскими датацентрами… К сожалению за последние годы в России так ничего и не поменялось, хоть облаком назови, хоть тучей, как была поганая инфраструктура и объе**ловка, так и осталась.
Подскажите, а не планируется ли вам такое же сравнение, но в плане Linux-систем?
все тоже самое относится к Linux
хотя конечно с под линукс данные нужно немного скорректировать
При таком объеме услуг и специфике выгоднее и удобнее арендовать или разместить свое оборудование (судя по представленным вами же ценникам). Но решать конечно же вам.
Здравствуйте Александр! :)
Приятно видеть столь масштабное исследование, при этом разностороннее и достаточно объективное. Как представитель компании Cloudone, готов подтвердить верность почти всех параметров. Хотел только обратить внимание ваше и аудитории на то, что ценник указан из первичного КП, которое мы так с вами и не обсудили лично :) Мы всегда стараемся найти вариант, максимально отвечающий ожиданиям и возможностям обеих сторон. Возможные скидки обсуждаются и не исключены. Кроме того, с 1-ого марта, мы несколько снизили базовые цены, так что сейчас общая стоимость предложения была бы ниже, даже без учета скидок.
это действительно очень интересный вопрос, но он требует отдельного изучения (возможно через некоторое время он также будет исследован) и результаты, конечно же будут отличаться.
По Selectel на момент запроса, нового облака еще не было.
Ant-DDOS для 1С и принт-сервера? Нихт ферштейн…
Какая миграция предполагается P2V или V2V?
Пробуя тестовую миграцию существующих виртуальных машин (гипервизор Hyper-V) в облако построенное на KVM и Xen столкнулись с рядом трудностей по миграции туда-обратно.
Любая миграция вносит баги, и редко проходит без проблем. Создавайте лучше новую конфигурацию и сливайте ваши данные.
Понятно, что миграция на уровне приложений должна быть корректнее, но насколько это гемморойнее.
Мигрировали с Hyper-V при помощи Acronis w Universal Restore подсовывая некоторым Win OC драйвера контроллеров. На Linux — recovery mode.

Для миграции с Hyper-V на VMWare есть VMWare Converter.
UFO just landed and posted this here
«Облака на FC» это фраза, аналогичная «рация — на бронетранспортере».

Облачная организация сервисов никак не зависит напрямую от того, какой провод используется между жестким диском и сервером.
не важно на чем строят — основные вопросы — в маштабируемости и стоимости.

некоторые клиенты просят чтобы было «подешевле» — а кому-то требуется высокие отказоустойчивость и работоспособность.

А тут что вы сравненили чего вам в КП наврали? Про 3 тьер почти у всех очень посмешили, один инфобокс честным оказался.

Труд большой, но бесполезный. То что выдумают сейлы в КП и что есть на практике — всегда большая разница.
UFO just landed and posted this here
Пример показывал и не раз. Пишу только о том, что делал сам или держал в руках. Спасибо, до свиданья.
А как там кстати ваш датацентр?
Еще бы было интересно узнать как осуществляется поддержка технологической платформы.
Например, «виртуальные коммутаторы» — это конечно круто, но по любому не без причуд.
Соответственно нужны сильные системные программисты у себя или их поддержка от разработчика платформы.
Как же убого выглядят две полки с дисками у облачного сервиса, а ещё эти каналы используем сейчас два канала по гигабиту на все облако или даем 10 мегабит на облачную впску. Ужас какой то, а не облачный хостинг. Видимо нет в России сейчас спроса на облака.
Какой спрос — такое и предложение.
Все же 2 полки и 2 гбита ( это не 10 мбит на впску, вспоминаем ТМО ) это лучше, чем два диска и 100 мегабит на одной ноде.
Ну это совсем как то не облачно, что будет если упадут две полки с дисками? А куда воткнуты два гигабитных аплинка? В одну железку или в две? А что будет если два аплинка упадут? А что если мне нужен двух гигабитный канал, а у вас всего два гигабита на всех.
А ещё меня умиляет всеобщая радость от вертикального масштабирования в русских облаках 8).
И как можно вообще доверять бекапам когда ты не имеешь к ним доступа? А что если из этих бекапов я не смогу восстановиться? А как они бекапят мою базу данных если данные на диске не консистентны?
Вероятность одновременного падения двух полок с дисками — квадрат вероятности падения одной (если это не софтовый глюк -то приблизительно равна попаданию второго снаряда в одну воронку).

Куда и как воткнуты аплинки — дело совести облачного провайдера.

Дело доверия к бэкапам — дело вашей личной паранойи. Покупайте внешние бэкапы и замораживайте изменяемые данные на время архивирования.

С другой стороны — никто вам не мешает держать все в амазоне и рекспейсе.
Как показала практика эта вероятность больше.
Сегодня кстати полез смотреть скриптик, который забирает мои бекапы с хостинга, смотрю чет бекапов в этом году нет. Думаю ну надо же, пошел сделал ручной бекап всего.
Написал хостеру говорю а чет бекапов нет, он такой а где вы их брали и какую ошибку получаете 8))
Расписал где раньше лежали, бац снова на фтп появилась папка с бекапами за сегодня.
Позвольте несколько комментариев:

1. Серверов с AD желательно бы два. Хорошо, что при выходе из строя хост сервера, виртуальный сервер перестартует где-то еще, но это не защищает от логического сбоя в ОС.
2. Многие пользователи любят поставить себе крупные шрифты в Windows, учтите, что в Windows Server 2008 эта установка одна на сервер, ее нельзя сделать для каждого пользователя. Поэтому, единственный выход, который мы нашли — это держать два терминальных сервера: с крупными шрифтами и с нормальными. :)
3. Терминальных серверов лучше бы тоже пару и объединить их в кластер. Повышается отказоустойчивость и проще масштабировать потом. А также осуществлять обслуживание (можно на один доступ закрывать, выполнять на нем необходимые действия, не нарушая работу пользователей на втором).
4. Вы отдаете свои корпоративные данные в третьи руки. Шифруйте все! Мы пользуемся TrueCrypt. При этом, нужно понимать, что провайдер услуги не сможет делать ваш бэкап, видя вашу файловую систему. Он будет видеть один файл большого размера. Хороший выход — побайтное резервное копирование на лету. Многие дисковые полки позволяют это делать, например HP P2000, но нужны дополнительные лицензии.
5. Вынося данные из своего офиса вы начинаете существенно зависеть от провайдера Интернет. Если исчезает связь — все 50 пользователей сидят без дела. Желательно приводить себе резервного провайдера в офис и настраивать свой выход в Интернет, а также VPN туннели с датацентром так, чтобы при выходе из строя одного провайдера, ваше устройство автоматически переключалось бы на резервный канал. Поэтому и VPN туннель к ЦОД нужно держать не один, а два. У нас так Cisco настроена.
6. Кроме резервного копирования, которое осуществляет провайдер, желательно бы желать свое резервное копирование. Это позволит восстанавливать файлы месячной давности например, тогда как провайдер, скорее всего, обеспечит лишь восстановление к последнему рабочему состоянию.
7. Если у вас от офиса до ЦОД трафик только терминальных сессий, то по нашим замерам, вполне хватает и 100КБит на одного пользователя. RDP сессия, на самом деле, обычно использует еще меньше, но трафик увеличивается, когда пользователи печатают что-то с сервера в ЦОД на ваш локальный принтер. То есть 50 * 100 КБит/с = 5 МБит/с канал. Возьмите 10МБит/с, чтобы иметь резерв.
8. Отдельный VLAN под вас — это очень правильно, но нужно уточнить у провайдера, в каком VLAN находится тот физический сервер, на котором должны перестартовать ваши виртуальные, если поломается основной. Логично предположить, что провайдеры держат один резервный сервер сразу для нескольких своих клиентов. Полностью ли автоматический будет перезапуск на нем в этом случае?

Если размещение за рубежом:
1. Имейте в виду, что есть правило, согласно которому, скорость одной TCP сессии ограничена размерами TCP окна и временем задержки до ЦОД. Из Москвы в Европу задержка — 30-50мс. На практике это может означать, что одна TCP сессия будет не более, чем 2-3МБит/с.
2. В некоторых случаях есть смысл организовать выход в Интернет не через тот датацентр, в котором находятся сервера. Иначе, по ip адресу сразу понятно, где и что расположено. Тоже самое касается MX записей для вашей почты. Должны ли они указывать на ваш датацентр? Нужно спрашивать у провайдера, может ли он так все настроить.

А, вообще, пишите в личку, если есть какие-то вопросы, пообщаемся.
Да, и еще одно (опять про зарубежный хостинг):
3. Нужно уточнять, полагается ли вам за эти деньги канал с гарантированной пропускной способностью именно туда.
Не понял откуда вы взяли 2-3 мегабита в секунду, в хетзнер германия из москвы выжимаю в не час пик 80 мегабит в секунду.
Одной сессией или несколькими сразу?

Вот статья об этом ограничении:
en.wikipedia.org/wiki/TCP_tuning

(см. TCP speed limits)

Какой у вас размер TCP окна, какая задержка?
Одной сессией по фтп, совершенно не знаю какое у меня окно все по умолчанию в линуксе, ну я думаю и в винде будут схожие результаты.
Задержка такая же как и у всех до европы 50-100мс
В Windows это окно 17 килобайт по умолчанию.

Т.е., получаем, 17 килобайт * 8 (переводим в килобиты) * 1024 (переводим в биты) / 0.050 (50 миллисекунд) = 2.79 МБит/с

Скорее всего, у вас ftp клиент с ftp сервером договариваются автоматически, чтобы использовать несколько сессий (потоков) одновременно. Проверьте iperf'ом скорость, интересно даже.
Не уверен я в ваших расчетах, так как система бьет пакеты на более мелкие под окно и шлет их параллельно, по крайней мере мне так запомнилось из теории tcp/ip.
Из москвы в сибирь задержка 50мс и качаю по фтп в винде 30-40 мегабит.
Боюсь что ваша формула не верна.
И все же проверьте скорость iperf'ом, а не ftp клиентом. :)
Уехал из России и серверов теперь в принципе не держу в Москве(после того как агава за день предупредила о переезде и смене айпишников).
Скачайте файл 100 мегабайтный с хетзнера на толстом канале и посмотрите скорость.
bill2fast.com/testfile.zip
Когда tcpip получает пакет большой она его режет на свои окна и посылает параллельно
> 2. Многие пользователи любят поставить себе крупные шрифты в Windows, учтите, что в Windows Server 2008 эта установка одна на сервер, ее нельзя сделать для каждого пользователя. Поэтому, единственный выход, который мы нашли — это держать два терминальных сервера: с крупными шрифтами и с нормальными. :)

Очень удобно :)
>>>
Проанализировав полученные данные, я решил выделить тройку лидеров моего сравнения:
Cloud4Y (Xen, VMware)
Softline (KVM)
Oversun (Hyper-V)

Из тройки лидеров, ЦОДы у всех полностью соответствуют Tier 3 (по заявлению). Насчет сертификации не знаю.
Судя по этой карте в Германии ни одного Tier 3. Как то верится с трудом…
Гипервизоры и операционные системы при включенном hyper-threading определяют одно физическое ядро процессора как два логических. Наверное, они обещают 14 именно логических ядер.
Если это так, то получается грустно и не совсем честно, стоимость процессора считается не от ядра, а от половины ядра. Ну и получается, что, в сравнении с Seletel, у них процессор дороже уже не в 1,66 а в 3,33 раза, да и количество доступных ядер получается 7, а не 8.
> Интерфейс построен на платформе Cloud.Com, базирующейся на OpenStack

Cloud.Com = CloudStack, а не OpenStack
Cloud4Y — спамеры! :-( Прислали рекламное письмо без объяснений что за рассылка, откуда взялся мой email, как отписаться… позор!
Зато они вставили ссылку на хабр… для новых отзывов ^_^
Sign up to leave a comment.

Articles