HostGator с 2012 года принадлежит EIG. Знающие люди стараются держаться от EIG как можно дальше. То есть пример прискорбный, конечно, но, учитывая качество хостинга от EIG, я бы не удивлялся.
В моей практике тоже полно примеров, когда забугорный хостер (SSDNodes, Contabo, Database by Design и другие) в случае сбоев действительно делал множество «ку» перед клиентом и старался помочь и с резервными копиями, и с другим.
Но вот отечественные хостинги, по моему опыту, не парятся в большинстве своём такими мелочами. Спасение утопающих — дело рук самих утопающих. Приятной неожиданностью был разве что Adman.
Помимо создания единой точки отказа, теперь всегда будет потенциальная возможность давления на всех обладателей сертификатов (с ходу — не думаю, что перевод сервиса в платный вариант кажется настолько уж невероятным).
Дело, конечно, хорошее, если бы не фактическое отсутствие альтернатив (помимо платных и очень платных).
Полагаю, что разумнее использовать меньший размер накопителей именно из соображений cost/performance: сдохнет один из — не так суетно и дорого заменять.
Зоопарк как раз тот случай, когда нет возможности обеспечить автоматизацию восстановления.
Вопрос не в том, чтобы всё воскресало в реальном времени, а чтобы за разумное время. И да, это время уже примерно известно (в т.ч. по итогам реальных инцидентов), и на него ориентируемся.
По счастью, действительно внезапных и катастрофических падений было крайне мало — признаки того, что ту или иную железку пора менять обычно заметны задолго до.
Ну, у нас примерно то же — критичные сервисы переключаются на резерв (включая связь с Интернетом) автоматом, но большинство функций обслуживания и восстановления всё же делаются людьми.
Это вопрос, при чём тут «доказательства»? Может, даже 99.99999% или ещё больше
У вас есть данные, сколько компаний действительно готовы потратить минимум усилий на восстановление своих сервисов, поскольку всё дублировано, реплицировано и т.д. и т.п.?
Приводить в качестве примера гигантов индустрии как минимум смешно — эти могут себе позволить продублировать всё несколько десятков раз.
А если взять произвольную компанию, не из гигантов — там как дела обстоят? Есть сведения?
Судя по тому, что я наблюдаю в ближайшем окружении, нет повального дублирования всего и вся. Обычно находят некий компромисс между возможностью действительно всё продублировать и возможностью минимизации времени на устранение неполадок.
Вот такая статистика была бы интересна, а не данные по Google, Microsoft и прочим крупнейшим компаниям.
А если посмотреть на 99.9999% остальных компаний в мире, там как устроено?
Было бы странно, если бы у всехэтих заоблачных сервисов всё не было бы дублировано по сто раз.
Вот когда я видел помещение, где один из наших провайдеров держит сетевое оборудование (в здании, где компания находится) — там 100% вообще ничего не дублировано и не зарезервировано.
Рискну предположить, что так же у большинства, хотя в большинстве исторических ситуаций связность чинилась очень быстро, невзирая на.
В тех случаях, когда это возможно. Да, в моём конкретном случае всевозможные внутренние сервисы живут на виртуалках, и вернуть такую к жизни из недавней резервной копии — дело быстрое.
Нереально не восстанавливать в реальном времени — речь не об этом.
Нереально держать для каждого устройства резервную копию, годную для немедленной замены. Возможно, это идеальное состояние, но IRL такого, похоже, просто не бывает. Если есть примеры — в студию, с подробностями.
Это при условии соблюдения правила 27, когда у каждого сервера есть готовый, точно повторяющий его состояние резервный, фактически уже включенный в сеть.
Что, повторюсь, IRL нереально. Скорее я поверю, что есть «пустые» готовые железяки, на которые можно быстро восстановить состояние того, что квакнулось.
То есть предлагается к исполнению 27-е правило Тёмного Властелина:
"27. Я не стану создавать что-либо, действительно важное, в единственном экземпляре. У всех важных систем будут дублирующие пульты управления и резервные источники энергии. По той же причине при себе у меня всегда будет два полностью заряженных экземпляра оружия."
По мне, ситуация фактически нереальная, когда действительно дублируется всё, что влияет на бизнес-процессы (так, чтобы решалось действием вида «достали из коробки и поставили на место»).
Вышел из строя сервер. Есть резервное «железо», бери, ставь и запускай. Но «ставь и запускай» в такой ситуации — задача всё равно срочная. Пусть даже всё сто раз просчитано и всё выделено — срочности никто не отменяет.
Или предполагается ещё и специальную должность выделить — человек, который в штатных ситуациях вообще ничего не делает, зато в таких вот выполняет работу, на которую не отвлекут никого другого?
На чей счёт заносить поломки оборудования, которые выливаются в срочную работу? Достаточно часто такое бывало — никакой мониторинг не предвещает, просто в один прекрасный день некое устройство выключается, и больше не включается.
Ну или, не знаю, поломалась что-нибудь дорогое, какая-нибудь кофе-машина. Чайник — материал расходный, ему можно купить резерв: сгорел — заменил на запасной, едем дальше. Но далеко не всё получается IRL дублировать.
В моей практике тоже полно примеров, когда забугорный хостер (SSDNodes, Contabo, Database by Design и другие) в случае сбоев действительно делал множество «ку» перед клиентом и старался помочь и с резервными копиями, и с другим.
Но вот отечественные хостинги, по моему опыту, не парятся в большинстве своём такими мелочами. Спасение утопающих — дело рук самих утопающих. Приятной неожиданностью был разве что Adman.
Дело, конечно, хорошее, если бы не фактическое отсутствие альтернатив (помимо платных и очень платных).
Плюс в реальности крайне редко возможно всё сразу построить по уму (а не тащить исторически сложившиеся конфигурации).
Вопрос не в том, чтобы всё воскресало в реальном времени, а чтобы за разумное время. И да, это время уже примерно известно (в т.ч. по итогам реальных инцидентов), и на него ориентируемся.
По счастью, действительно внезапных и катастрофических падений было крайне мало — признаки того, что ту или иную железку пора менять обычно заметны задолго до.
У вас есть данные, сколько компаний действительно готовы потратить минимум усилий на восстановление своих сервисов, поскольку всё дублировано, реплицировано и т.д. и т.п.?
Приводить в качестве примера гигантов индустрии как минимум смешно — эти могут себе позволить продублировать всё несколько десятков раз.
А если взять произвольную компанию, не из гигантов — там как дела обстоят? Есть сведения?
Судя по тому, что я наблюдаю в ближайшем окружении, нет повального дублирования всего и вся. Обычно находят некий компромисс между возможностью действительно всё продублировать и возможностью минимизации времени на устранение неполадок.
Вот такая статистика была бы интересна, а не данные по Google, Microsoft и прочим крупнейшим компаниям.
У нас зоопарк VM, с разными ОС и сервисами на них. Далеко не все они БД, и далеко не всегда возможна репликация состояния в реальном времени.
Было бы странно, если бы у всехэтих заоблачных сервисов всё не было бы дублировано по сто раз.
Вот когда я видел помещение, где один из наших провайдеров держит сетевое оборудование (в здании, где компания находится) — там 100% вообще ничего не дублировано и не зарезервировано.
Рискну предположить, что так же у большинства, хотя в большинстве исторических ситуаций связность чинилась очень быстро, невзирая на.
Вы утверждаете, что в нормальной компании всё 100% дублировано / зарезервировано — вам и примеры приводить.
(хотя не очень понимаю, как их приводить — вряд ли сотрудникам компании позволено трепаться в Сети, как там у них что устроено)
Нереально не восстанавливать в реальном времени — речь не об этом.
Нереально держать для каждого устройства резервную копию, годную для немедленной замены. Возможно, это идеальное состояние, но IRL такого, похоже, просто не бывает. Если есть примеры — в студию, с подробностями.
Что, повторюсь, IRL нереально. Скорее я поверю, что есть «пустые» готовые железяки, на которые можно быстро восстановить состояние того, что квакнулось.
"27. Я не стану создавать что-либо, действительно важное, в единственном экземпляре. У всех важных систем будут дублирующие пульты управления и резервные источники энергии. По той же причине при себе у меня всегда будет два полностью заряженных экземпляра оружия."
По мне, ситуация фактически нереальная, когда действительно дублируется всё, что влияет на бизнес-процессы (так, чтобы решалось действием вида «достали из коробки и поставили на место»).
Вышел из строя сервер. Есть резервное «железо», бери, ставь и запускай. Но «ставь и запускай» в такой ситуации — задача всё равно срочная. Пусть даже всё сто раз просчитано и всё выделено — срочности никто не отменяет.
Или предполагается ещё и специальную должность выделить — человек, который в штатных ситуациях вообще ничего не делает, зато в таких вот выполняет работу, на которую не отвлекут никого другого?
Ну или, не знаю, поломалась что-нибудь дорогое, какая-нибудь кофе-машина. Чайник — материал расходный, ему можно купить резерв: сгорел — заменил на запасной, едем дальше. Но далеко не всё получается IRL дублировать.