Комментарии 69
Добавьте в заголовок и/или анонс, что исследования велись лишь в плане Windows-решений.
Parking… NetApp различные модели с SAS и SATA дисками, всегда 2 контроллера… RAID (инф. Не выдал)
Если NetApp, то у них RAID-DP у всех. Другие типы сейчас просто не используются.
Если NetApp, то у них RAID-DP у всех. Другие типы сейчас просто не используются.
Большая работа! Вы молодец, спасибо за информацию!
Прекрасная работа, спасибо!
Интересно было бы в продолжение темы сравнить цены на такую же конфигурацию у зарубежных сервисов.
Интересно было бы в продолжение темы сравнить цены на такую же конфигурацию у зарубежных сервисов.
Интересно, откуда в России внезапно появилось так много TIER 3 ДЦ? Или там пропущена фраза «не сертифицирован»?
И странная любовь к Juniper SRX 100 и 210 в ДЦ. Они в стойку не монтируются. Уши к ним в России, насколько мне известно, официально не продаются. Вилка питания у них тоже не очень для ДЦ.
И странная любовь к Juniper SRX 100 и 210 в ДЦ. Они в стойку не монтируются. Уши к ним в России, насколько мне известно, официально не продаются. Вилка питания у них тоже не очень для ДЦ.
это то что отвечали облачные операторы. Возможно, ДЦ TIER 3 реально не все сертифицированны.
Надо было задать вопрос по сертификации ДЦ.
Спасибо за подсказку на будущее.
Надо было задать вопрос по сертификации ДЦ.
Спасибо за подсказку на будущее.
Слышал от представителей Мегафона, что у них построен TIER3 ДЦ в Мурманске и на данный момент идет сертификация его.
НЛО прилетело и опубликовало эту надпись здесь
Пробовали DataLine… подобрали алокейшн пул примерно совпадающий по параметром с нашими текущими железными серверами (не сильно то и нагруженными), после миграции оказалось, что проца в облаке нам нужно в 3! раза больше. По деньгам это почти в 5 раз дороже, чем в нашем совсем не дешевом европейском датацентре. В общем, заплатили 48к, развернулись и ушли. Чтоб я еще хоть раз в жизни связался с российскими датацентрами… К сожалению за последние годы в России так ничего и не поменялось, хоть облаком назови, хоть тучей, как была поганая инфраструктура и объе**ловка, так и осталась.
Подскажите, а не планируется ли вам такое же сравнение, но в плане Linux-систем?
При таком объеме услуг и специфике выгоднее и удобнее арендовать или разместить свое оборудование (судя по представленным вами же ценникам). Но решать конечно же вам.
Здравствуйте Александр! :)
Приятно видеть столь масштабное исследование, при этом разностороннее и достаточно объективное. Как представитель компании Cloudone, готов подтвердить верность почти всех параметров. Хотел только обратить внимание ваше и аудитории на то, что ценник указан из первичного КП, которое мы так с вами и не обсудили лично :) Мы всегда стараемся найти вариант, максимально отвечающий ожиданиям и возможностям обеих сторон. Возможные скидки обсуждаются и не исключены. Кроме того, с 1-ого марта, мы несколько снизили базовые цены, так что сейчас общая стоимость предложения была бы ниже, даже без учета скидок.
Приятно видеть столь масштабное исследование, при этом разностороннее и достаточно объективное. Как представитель компании Cloudone, готов подтвердить верность почти всех параметров. Хотел только обратить внимание ваше и аудитории на то, что ценник указан из первичного КП, которое мы так с вами и не обсудили лично :) Мы всегда стараемся найти вариант, максимально отвечающий ожиданиям и возможностям обеих сторон. Возможные скидки обсуждаются и не исключены. Кроме того, с 1-ого марта, мы несколько снизили базовые цены, так что сейчас общая стоимость предложения была бы ниже, даже без учета скидок.
Интересно, кто бы вышел в 3ку лидеров, если бы в Вашем списке был бы вопрос о возможности подключения anti-DDOS на постоянной основе или временно :)
P.S. Кстати, Selectel уже открыл облако для новых клиентов
P.S. Кстати, Selectel уже открыл облако для новых клиентов
Селектел уже успел и уронить новое облако habrahabr.ru/blogs/hosting/139368/
это действительно очень интересный вопрос, но он требует отдельного изучения (возможно через некоторое время он также будет исследован) и результаты, конечно же будут отличаться.
По Selectel на момент запроса, нового облака еще не было.
По Selectel на момент запроса, нового облака еще не было.
Ant-DDOS для 1С и принт-сервера? Нихт ферштейн…
спасибо за проделанный труд, статья шикарная
Какая миграция предполагается P2V или V2V?
Пробуя тестовую миграцию существующих виртуальных машин (гипервизор Hyper-V) в облако построенное на KVM и Xen столкнулись с рядом трудностей по миграции туда-обратно.
Пробуя тестовую миграцию существующих виртуальных машин (гипервизор Hyper-V) в облако построенное на KVM и Xen столкнулись с рядом трудностей по миграции туда-обратно.
Любая миграция вносит баги, и редко проходит без проблем. Создавайте лучше новую конфигурацию и сливайте ваши данные.
Мигрировали с Hyper-V при помощи Acronis w Universal Restore подсовывая некоторым Win OC драйвера контроллеров. На Linux — recovery mode.
Для миграции с Hyper-V на VMWare есть VMWare Converter.
Для миграции с Hyper-V на VMWare есть VMWare Converter.
Я так понял, что облака все таки на FC строят.
НЛО прилетело и опубликовало эту надпись здесь
«Облака на FC» это фраза, аналогичная «рация — на бронетранспортере».
Облачная организация сервисов никак не зависит напрямую от того, какой провод используется между жестким диском и сервером.
Облачная организация сервисов никак не зависит напрямую от того, какой провод используется между жестким диском и сервером.
не важно на чем строят — основные вопросы — в маштабируемости и стоимости.
некоторые клиенты просят чтобы было «подешевле» — а кому-то требуется высокие отказоустойчивость и работоспособность.
некоторые клиенты просят чтобы было «подешевле» — а кому-то требуется высокие отказоустойчивость и работоспособность.
А тут что вы сравненили чего вам в КП наврали? Про 3 тьер почти у всех очень посмешили, один инфобокс честным оказался.
Труд большой, но бесполезный. То что выдумают сейлы в КП и что есть на практике — всегда большая разница.
Труд большой, но бесполезный. То что выдумают сейлы в КП и что есть на практике — всегда большая разница.
Еще бы было интересно узнать как осуществляется поддержка технологической платформы.
Например, «виртуальные коммутаторы» — это конечно круто, но по любому не без причуд.
Соответственно нужны сильные системные программисты у себя или их поддержка от разработчика платформы.
Например, «виртуальные коммутаторы» — это конечно круто, но по любому не без причуд.
Соответственно нужны сильные системные программисты у себя или их поддержка от разработчика платформы.
Как же убого выглядят две полки с дисками у облачного сервиса, а ещё эти каналы используем сейчас два канала по гигабиту на все облако или даем 10 мегабит на облачную впску. Ужас какой то, а не облачный хостинг. Видимо нет в России сейчас спроса на облака.
Какой спрос — такое и предложение.
Все же 2 полки и 2 гбита ( это не 10 мбит на впску, вспоминаем ТМО ) это лучше, чем два диска и 100 мегабит на одной ноде.
Все же 2 полки и 2 гбита ( это не 10 мбит на впску, вспоминаем ТМО ) это лучше, чем два диска и 100 мегабит на одной ноде.
Ну это совсем как то не облачно, что будет если упадут две полки с дисками? А куда воткнуты два гигабитных аплинка? В одну железку или в две? А что будет если два аплинка упадут? А что если мне нужен двух гигабитный канал, а у вас всего два гигабита на всех.
А ещё меня умиляет всеобщая радость от вертикального масштабирования в русских облаках 8).
И как можно вообще доверять бекапам когда ты не имеешь к ним доступа? А что если из этих бекапов я не смогу восстановиться? А как они бекапят мою базу данных если данные на диске не консистентны?
А ещё меня умиляет всеобщая радость от вертикального масштабирования в русских облаках 8).
И как можно вообще доверять бекапам когда ты не имеешь к ним доступа? А что если из этих бекапов я не смогу восстановиться? А как они бекапят мою базу данных если данные на диске не консистентны?
Вероятность одновременного падения двух полок с дисками — квадрат вероятности падения одной (если это не софтовый глюк -то приблизительно равна попаданию второго снаряда в одну воронку).
Куда и как воткнуты аплинки — дело совести облачного провайдера.
Дело доверия к бэкапам — дело вашей личной паранойи. Покупайте внешние бэкапы и замораживайте изменяемые данные на время архивирования.
С другой стороны — никто вам не мешает держать все в амазоне и рекспейсе.
Куда и как воткнуты аплинки — дело совести облачного провайдера.
Дело доверия к бэкапам — дело вашей личной паранойи. Покупайте внешние бэкапы и замораживайте изменяемые данные на время архивирования.
С другой стороны — никто вам не мешает держать все в амазоне и рекспейсе.
Как показала практика эта вероятность больше.
Сегодня кстати полез смотреть скриптик, который забирает мои бекапы с хостинга, смотрю чет бекапов в этом году нет. Думаю ну надо же, пошел сделал ручной бекап всего.
Написал хостеру говорю а чет бекапов нет, он такой а где вы их брали и какую ошибку получаете 8))
Расписал где раньше лежали, бац снова на фтп появилась папка с бекапами за сегодня.
Написал хостеру говорю а чет бекапов нет, он такой а где вы их брали и какую ошибку получаете 8))
Расписал где раньше лежали, бац снова на фтп появилась папка с бекапами за сегодня.
Позвольте несколько комментариев:
1. Серверов с AD желательно бы два. Хорошо, что при выходе из строя хост сервера, виртуальный сервер перестартует где-то еще, но это не защищает от логического сбоя в ОС.
2. Многие пользователи любят поставить себе крупные шрифты в Windows, учтите, что в Windows Server 2008 эта установка одна на сервер, ее нельзя сделать для каждого пользователя. Поэтому, единственный выход, который мы нашли — это держать два терминальных сервера: с крупными шрифтами и с нормальными. :)
3. Терминальных серверов лучше бы тоже пару и объединить их в кластер. Повышается отказоустойчивость и проще масштабировать потом. А также осуществлять обслуживание (можно на один доступ закрывать, выполнять на нем необходимые действия, не нарушая работу пользователей на втором).
4. Вы отдаете свои корпоративные данные в третьи руки. Шифруйте все! Мы пользуемся TrueCrypt. При этом, нужно понимать, что провайдер услуги не сможет делать ваш бэкап, видя вашу файловую систему. Он будет видеть один файл большого размера. Хороший выход — побайтное резервное копирование на лету. Многие дисковые полки позволяют это делать, например HP P2000, но нужны дополнительные лицензии.
5. Вынося данные из своего офиса вы начинаете существенно зависеть от провайдера Интернет. Если исчезает связь — все 50 пользователей сидят без дела. Желательно приводить себе резервного провайдера в офис и настраивать свой выход в Интернет, а также VPN туннели с датацентром так, чтобы при выходе из строя одного провайдера, ваше устройство автоматически переключалось бы на резервный канал. Поэтому и VPN туннель к ЦОД нужно держать не один, а два. У нас так Cisco настроена.
6. Кроме резервного копирования, которое осуществляет провайдер, желательно бы желать свое резервное копирование. Это позволит восстанавливать файлы месячной давности например, тогда как провайдер, скорее всего, обеспечит лишь восстановление к последнему рабочему состоянию.
7. Если у вас от офиса до ЦОД трафик только терминальных сессий, то по нашим замерам, вполне хватает и 100КБит на одного пользователя. RDP сессия, на самом деле, обычно использует еще меньше, но трафик увеличивается, когда пользователи печатают что-то с сервера в ЦОД на ваш локальный принтер. То есть 50 * 100 КБит/с = 5 МБит/с канал. Возьмите 10МБит/с, чтобы иметь резерв.
8. Отдельный VLAN под вас — это очень правильно, но нужно уточнить у провайдера, в каком VLAN находится тот физический сервер, на котором должны перестартовать ваши виртуальные, если поломается основной. Логично предположить, что провайдеры держат один резервный сервер сразу для нескольких своих клиентов. Полностью ли автоматический будет перезапуск на нем в этом случае?
Если размещение за рубежом:
1. Имейте в виду, что есть правило, согласно которому, скорость одной TCP сессии ограничена размерами TCP окна и временем задержки до ЦОД. Из Москвы в Европу задержка — 30-50мс. На практике это может означать, что одна TCP сессия будет не более, чем 2-3МБит/с.
2. В некоторых случаях есть смысл организовать выход в Интернет не через тот датацентр, в котором находятся сервера. Иначе, по ip адресу сразу понятно, где и что расположено. Тоже самое касается MX записей для вашей почты. Должны ли они указывать на ваш датацентр? Нужно спрашивать у провайдера, может ли он так все настроить.
А, вообще, пишите в личку, если есть какие-то вопросы, пообщаемся.
1. Серверов с AD желательно бы два. Хорошо, что при выходе из строя хост сервера, виртуальный сервер перестартует где-то еще, но это не защищает от логического сбоя в ОС.
2. Многие пользователи любят поставить себе крупные шрифты в Windows, учтите, что в Windows Server 2008 эта установка одна на сервер, ее нельзя сделать для каждого пользователя. Поэтому, единственный выход, который мы нашли — это держать два терминальных сервера: с крупными шрифтами и с нормальными. :)
3. Терминальных серверов лучше бы тоже пару и объединить их в кластер. Повышается отказоустойчивость и проще масштабировать потом. А также осуществлять обслуживание (можно на один доступ закрывать, выполнять на нем необходимые действия, не нарушая работу пользователей на втором).
4. Вы отдаете свои корпоративные данные в третьи руки. Шифруйте все! Мы пользуемся TrueCrypt. При этом, нужно понимать, что провайдер услуги не сможет делать ваш бэкап, видя вашу файловую систему. Он будет видеть один файл большого размера. Хороший выход — побайтное резервное копирование на лету. Многие дисковые полки позволяют это делать, например HP P2000, но нужны дополнительные лицензии.
5. Вынося данные из своего офиса вы начинаете существенно зависеть от провайдера Интернет. Если исчезает связь — все 50 пользователей сидят без дела. Желательно приводить себе резервного провайдера в офис и настраивать свой выход в Интернет, а также VPN туннели с датацентром так, чтобы при выходе из строя одного провайдера, ваше устройство автоматически переключалось бы на резервный канал. Поэтому и VPN туннель к ЦОД нужно держать не один, а два. У нас так Cisco настроена.
6. Кроме резервного копирования, которое осуществляет провайдер, желательно бы желать свое резервное копирование. Это позволит восстанавливать файлы месячной давности например, тогда как провайдер, скорее всего, обеспечит лишь восстановление к последнему рабочему состоянию.
7. Если у вас от офиса до ЦОД трафик только терминальных сессий, то по нашим замерам, вполне хватает и 100КБит на одного пользователя. RDP сессия, на самом деле, обычно использует еще меньше, но трафик увеличивается, когда пользователи печатают что-то с сервера в ЦОД на ваш локальный принтер. То есть 50 * 100 КБит/с = 5 МБит/с канал. Возьмите 10МБит/с, чтобы иметь резерв.
8. Отдельный VLAN под вас — это очень правильно, но нужно уточнить у провайдера, в каком VLAN находится тот физический сервер, на котором должны перестартовать ваши виртуальные, если поломается основной. Логично предположить, что провайдеры держат один резервный сервер сразу для нескольких своих клиентов. Полностью ли автоматический будет перезапуск на нем в этом случае?
Если размещение за рубежом:
1. Имейте в виду, что есть правило, согласно которому, скорость одной TCP сессии ограничена размерами TCP окна и временем задержки до ЦОД. Из Москвы в Европу задержка — 30-50мс. На практике это может означать, что одна TCP сессия будет не более, чем 2-3МБит/с.
2. В некоторых случаях есть смысл организовать выход в Интернет не через тот датацентр, в котором находятся сервера. Иначе, по ip адресу сразу понятно, где и что расположено. Тоже самое касается MX записей для вашей почты. Должны ли они указывать на ваш датацентр? Нужно спрашивать у провайдера, может ли он так все настроить.
А, вообще, пишите в личку, если есть какие-то вопросы, пообщаемся.
Да, и еще одно (опять про зарубежный хостинг):
3. Нужно уточнять, полагается ли вам за эти деньги канал с гарантированной пропускной способностью именно туда.
3. Нужно уточнять, полагается ли вам за эти деньги канал с гарантированной пропускной способностью именно туда.
Не понял откуда вы взяли 2-3 мегабита в секунду, в хетзнер германия из москвы выжимаю в не час пик 80 мегабит в секунду.
Одной сессией или несколькими сразу?
Вот статья об этом ограничении:
en.wikipedia.org/wiki/TCP_tuning
(см. TCP speed limits)
Какой у вас размер TCP окна, какая задержка?
Вот статья об этом ограничении:
en.wikipedia.org/wiki/TCP_tuning
(см. TCP speed limits)
Какой у вас размер TCP окна, какая задержка?
Одной сессией по фтп, совершенно не знаю какое у меня окно все по умолчанию в линуксе, ну я думаю и в винде будут схожие результаты.
Задержка такая же как и у всех до европы 50-100мс
Задержка такая же как и у всех до европы 50-100мс
В Windows это окно 17 килобайт по умолчанию.
Т.е., получаем, 17 килобайт * 8 (переводим в килобиты) * 1024 (переводим в биты) / 0.050 (50 миллисекунд) = 2.79 МБит/с
Скорее всего, у вас ftp клиент с ftp сервером договариваются автоматически, чтобы использовать несколько сессий (потоков) одновременно. Проверьте iperf'ом скорость, интересно даже.
Т.е., получаем, 17 килобайт * 8 (переводим в килобиты) * 1024 (переводим в биты) / 0.050 (50 миллисекунд) = 2.79 МБит/с
Скорее всего, у вас ftp клиент с ftp сервером договариваются автоматически, чтобы использовать несколько сессий (потоков) одновременно. Проверьте iperf'ом скорость, интересно даже.
Не уверен я в ваших расчетах, так как система бьет пакеты на более мелкие под окно и шлет их параллельно, по крайней мере мне так запомнилось из теории tcp/ip.
Из москвы в сибирь задержка 50мс и качаю по фтп в винде 30-40 мегабит.
Боюсь что ваша формула не верна.
Из москвы в сибирь задержка 50мс и качаю по фтп в винде 30-40 мегабит.
Боюсь что ваша формула не верна.
И все же проверьте скорость iperf'ом, а не ftp клиентом. :)
Уехал из России и серверов теперь в принципе не держу в Москве(после того как агава за день предупредила о переезде и смене айпишников).
Скачайте файл 100 мегабайтный с хетзнера на толстом канале и посмотрите скорость.
bill2fast.com/testfile.zip
Когда tcpip получает пакет большой она его режет на свои окна и посылает параллельно
bill2fast.com/testfile.zip
Когда tcpip получает пакет большой она его режет на свои окна и посылает параллельно
> 2. Многие пользователи любят поставить себе крупные шрифты в Windows, учтите, что в Windows Server 2008 эта установка одна на сервер, ее нельзя сделать для каждого пользователя. Поэтому, единственный выход, который мы нашли — это держать два терминальных сервера: с крупными шрифтами и с нормальными. :)
Очень удобно :)
Очень удобно :)
>>>
Проанализировав полученные данные, я решил выделить тройку лидеров моего сравнения:
Cloud4Y (Xen, VMware)
Softline (KVM)
Oversun (Hyper-V)
Из тройки лидеров, ЦОДы у всех полностью соответствуют Tier 3 (по заявлению). Насчет сертификации не знаю.
Проанализировав полученные данные, я решил выделить тройку лидеров моего сравнения:
Cloud4Y (Xen, VMware)
Softline (KVM)
Oversun (Hyper-V)
Из тройки лидеров, ЦОДы у всех полностью соответствуют Tier 3 (по заявлению). Насчет сертификации не знаю.
Стало любопытно откуда у Clodo 14 ядер в Scale Server, при железе 2 х Intel® Xeon® CPU E5520 (8 ядер).
Гипервизоры и операционные системы при включенном hyper-threading определяют одно физическое ядро процессора как два логических. Наверное, они обещают 14 именно логических ядер.
> Интерфейс построен на платформе Cloud.Com, базирующейся на OpenStack
Cloud.Com = CloudStack, а не OpenStack
Cloud.Com = CloudStack, а не OpenStack
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Функциональное и экономическое сравнение российских операторов предоставляющих облачные услуги