Как стать автором
Обновить

«Двигаем» не только автомобили: как CarPrice переезжал в новый ЦОД

Уровень сложностиПростой
Время на прочтение7 мин
Количество просмотров3.4K
Всего голосов 10: ↑9 и ↓1+11
Комментарии5

Комментарии 5

Производительность сети увеличили с 1 гигабита до 10

Кажется вам переезжать раньше надо было, лет эдак 5-10 :)

Загрузку сети мы отслеживаем в мониторинге. Если бы была острая необходимость в 10Гб мы могли взять доп. адаптеры и в старом ДЦ. Поэтому сеть - это не основная причина для переезда)

Молодцы.

Как ЦОДы соединяли для миграции окружений?

Был ли препрод, который взял нагрузку при падении прод среды? Будет ли?

Почему мигрировали окружения, а не проводили раскатку с нуля и репликацию данных?

Правильно ли я понял, что сейчас мишн критикал сервис живет в одном цоде в нескольких стойках?

Как ЦОДы соединяли для миграции окружений?

Строили VPN'ы крест-накрест для отказоустойчивости между роутерами старого и нового ДЦ. По скорости выиграл GRE, его и использовали. В туннель с обеих сторон направляли роуты из старой инфраструктуры в новую и из новой в старую.

Был ли препрод, который взял нагрузку при падении прод среды? Будет ли?

Тут нужен не препрод, а сам прод должен отрабатывать отказы. Инфраструктура у нас построена по этому принципу, но еще есть над чем поработать)

Почему мигрировали окружения, а не проводили раскатку с нуля и репликацию данных?

Действовали и так и так, в зависимости от того что быстрее. Кубер, например, было быстрее раскатать новый и задеплоиться в него, чем мигрировать виртуальными машинами или расширением кластера на новый ДЦ.

Правильно ли я понял, что сейчас мишн критикал сервис живет в одном цоде в нескольких стойках?

Основная часть сервисов у нас живет на серверах blade-корзины. Но корзина сама по себе зарезервирована и по модулям и по питанию.

Спасибо за ответы и подробный рассказ. Будет интересно узнать о вашей инфраструктуре, если это не под NDA.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий