Pull to refresh
Переместить большой объем данных не останавливая работу серверов — задача посложнее, чем построить с нуля новую архитектуру. Надо понимать, что, как, когда и куда, а еще организовать переезд так, чтобы не тормозить уже существующие бизнес-процессы. Мы смогли найти программный продукт для решения всех этих задач и под катом расскажем, как переехать из одного ЦОД в другой за два месяца, решив несколько сопутствующих задач, и сделать это в условиях ограниченных ресурсов. При этом вся команда сумела осуществить этот процесс буквально не выходя из дома (благо технология позволяет), что можно считать еще одной победой.
Обо всем по порядку
Total votes 22: ↑20 and ↓2+18
Comments16

Comments 16

100 Мбит для переноса нашего объема данных было недостаточно, тянуть данные пришлось бы месяцами.

Сколько в итоге заняло времени на процесс репликации средствами Carbonite?
У Вас все данные хранились на локальных дисках серверов и так и продолжаете делать? Кластеризация не используется? Внешней СХД тоже нет?
Репликация длилась в фоновом режиме около 2-х недель, при этом продуктивные системы работали в штатном режиме, без дополнительной нагрузки со стороны заданий репликации. Данные физически хранились на большом дисковом массиве IBM серии DS. На новом месте был массив HP серии EVA. И тот и другой массивы принадлежали сервис-провайдерам. От контракта со «старым» ЦОД (где СХД IBM) сразу после окончания миграции отказались. Да, кластеризация от Microsoft.
Вообще-то, в рамках проекта, была идея на внешние СХД все скопировать, отвезти в новый ЦОД и потом, накопленную за время транспортировки дисков дельту, синхронизировать с исходной базой. Софт такой функционал поддерживает. Но у клиента не было физического доступа в старый ЦОД, плюс командировки нужны были бы дорогие. По этой причине бизнес был готов ждать 3 недели.
И ещё, каким бы софтом не двигали данные, их размер не менялся. А вот размер изменений в день мы давали в 5-7 раз меньше за счёт функции компрессии Carbonite.
На новом месте был массив HP серии EVA.

Так этот переезд был давно?
Данные СХД уже не выпускаются много лет. Да и производительность самой СХД далека от необходимой сегодня для продуктива. Да и нужно понимать на поддержке ли «древняя» СХД, чтобы не потерять данные безвозвратно.
ну EVA ещё много где нормально трудится в проде и без проблем. Вопрос в нагрузках.
Важно, что Заказчику была предоставлена возможность работать с любыми производителями СХД и с любым типом подключения к ним (NAS, DAS, SAN или даже iSCSI), так как Carbonite работает c volume disk на уровне операционной системы сервера. А разговор об управлении жизненными циклами ресурсов того или иного сервис-провайдера, как мне думается, находится за рамками этого поста.
Поддерживается ли миграция между серверами Windows различных версий и редакций? Например 2012 на 2012 R2, 2016 Essentials на Standard и т.п.
Да, есть поддержка миграции между разными версиями и редакциями операционных систем в режиме «Files and folders» для:
Windows 2019 и Server Core 2019
Windows 2016 и Server Core 2016
Windows 2012 R2 и Server Core 2012 R2
Windows 2012 и Server Core 2012
Windows 2008 R2 Service Pack 1 и другие
Server Core 2008 R2 Service Pack 1 и другие.
Допустимы любые комбинации в рамках списка поддерживаемых операционных систем.
… и приходится либо идти к руководству нового ЦОД...

А что мешает ЦОД нормальный выбрать, судя по описанию объёма миграции — ничего сложного. Конкуренция по рынку высока, каналы тоже есть у многих операторов. ЦОДы с политикой «пустим только по нашим волокнам и с нашим ip-транзитом» идут мимо.
В целом проявляется отсутствие диалога бизнеса и IT-сервисов/инфраструктуры.

По остальному тексту — Ощущение, что искали проблемы ради «преодоления», а не решения бизнес задач.
DR — вполне занятно описан процесс, но ожидал большего.

А ещё не проходящее ощущение что уже это было, только там «оператор зажимал канал и не давал слить данные», и тоже реклама карбонита (кстати вполне годный софт). habr.com/ru/company/croccloudteam/blog/359190
ЧСХ (у меня общий опыт работы тоже показывает на это) с IaaS/SaaS и операторами ЦОД, если не быть «жлобом» и «наркоманом» (оценочные характеристики), то всегда можно найти взаимовыгодное и главное — удобное решение.

Кажется, что пост написан ровно для рекламы чудесного ПО, и чуть ли не про выдуманную, а не про реальную компанию.


Ну и исходные данные впечатляют: денег не дадим, времени не дадим (ваши 2 месяца и ушли на копирование, а выбор продукта, подключение партнера производителя — это было мгновенно, и бесплатно, согласно требованиям рук-ва, правда?) Про выбор ДЦ, которые вам только мешали, можно не упоминать.


В жизни, конечно, так и бывает. Только слабо верится, что бизнес, сама работа которого завязана на полтора десятка серверов, не даст времени, денег и прочего на сохранение данных и серверов, и даст приказ (а даже не добро) «с ключом -f», так сказать, срочно перенести машины черт знает куда без тестового переноса, без массы сопутствующих мероприятий, повышающих уверенность в успешности.


И, да, переехать в ДЦ — часть дела. Серверы не в воздухе висят, переключение юзеров и бизнес-процессов никакое волшебное ПО не сделает, а это может быть той еще историей.


В общем, реклама хорошая, и я бы даже ПО попробовал, но ни цены, ни уверенности, что все пройдет сразу и идеально пост мне не дал.


P.S. У вас там переезжают три типа серверов: Windows, Windows и Linux. Чем первые две категории отличаются на деле?

Осуществлялась Миграция 3-х категорий (групп) серверов:

1. Физические сервера Windows на Физические сервера Windows.
2. Физические сервера Windows на Виртуальные сервера Windows (VMWare ESX).
3. Физические сервера Linux на Виртуальные сервера Linux (VMware ESX).
У вас P2V миграция создала проблемы?
Со стороны Carbonite миграция серверов P2V не вызывает технических проблем, так как это одна из ключевых функций ПО, реализованная и отработанная в полной мере, в отличии от конкурентных решений. Кроме этого, мало кто может не только «двинуть» физику на виртуалку, но и просто «двигать» виртуальные машины между разными гипервизорами в real-time режиме, не нагружая процессоры, дисковую подсистему I\O, с downtime близким к нулю, сохраняя при этом производительность продуктивной среды и обеспечивая высокую доступность сервисов.

Возможно, вас интересует способ решения каких-то конкретных проблем миграции P2V?
Думаю, стоимость ПО и бесплатное демо, при желании, всегда можно запросить у вендора или дистрибьютора.
Простите, но можно и другое ПО у другого вендора запросить :) Например мне очень нравится Veeam и их блог на Хабре.
Veeam Расскажете об актуальных продуктах?
Мы постоянно о них рассказываем ;) И не только в блоге на хабре.
Даже есть наш прекрасный форум, где можно напрямую пообщаться с разработчиками, посильно излив свою проблему.
Да, что-то слышал о них. Было бы интересно провести не маркетинговое сравнение.
Sign up to leave a comment.