Comments 5
Производительность сети увеличили с 1 гигабита до 10
Кажется вам переезжать раньше надо было, лет эдак 5-10 :)
Молодцы.
Как ЦОДы соединяли для миграции окружений?
Был ли препрод, который взял нагрузку при падении прод среды? Будет ли?
Почему мигрировали окружения, а не проводили раскатку с нуля и репликацию данных?
Правильно ли я понял, что сейчас мишн критикал сервис живет в одном цоде в нескольких стойках?
Как ЦОДы соединяли для миграции окружений?
Строили VPN'ы крест-накрест для отказоустойчивости между роутерами старого и нового ДЦ. По скорости выиграл GRE, его и использовали. В туннель с обеих сторон направляли роуты из старой инфраструктуры в новую и из новой в старую.
Был ли препрод, который взял нагрузку при падении прод среды? Будет ли?
Тут нужен не препрод, а сам прод должен отрабатывать отказы. Инфраструктура у нас построена по этому принципу, но еще есть над чем поработать)
Почему мигрировали окружения, а не проводили раскатку с нуля и репликацию данных?
Действовали и так и так, в зависимости от того что быстрее. Кубер, например, было быстрее раскатать новый и задеплоиться в него, чем мигрировать виртуальными машинами или расширением кластера на новый ДЦ.
Правильно ли я понял, что сейчас мишн критикал сервис живет в одном цоде в нескольких стойках?
Основная часть сервисов у нас живет на серверах blade-корзины. Но корзина сама по себе зарезервирована и по модулям и по питанию.
«Двигаем» не только автомобили: как CarPrice переезжал в новый ЦОД