Комментарии 224
@clodo_ru Вы сами запустите сервера?
Компенсация будет?
Компенсация будет?
Сервера сами запустим. Вопросы компенсации будем решать после решения аналогичного вопроса с ДЦ Оверсан-Меркурий.
Компенсация за 2-3 часа простоя это, конечно, хорошо: получится 2-3 рубля.
Даже если компенсация будет за день простоя, у меня на проекте с посещаемостью около 10к в сутки на Scale Server clodo тратится 30 рублей в день, что же мне эти 30 рублей компенсируют.
А кто компенсирует простой размещенной на сайте рекламы, простой собственных рекламных кампаний, которые ведут на «невозможно отобразить страницу», и как компенсировать лояльность пользователей, которая бесценна и снижается от таких падений
Даже если компенсация будет за день простоя, у меня на проекте с посещаемостью около 10к в сутки на Scale Server clodo тратится 30 рублей в день, что же мне эти 30 рублей компенсируют.
А кто компенсирует простой размещенной на сайте рекламы, простой собственных рекламных кампаний, которые ведут на «невозможно отобразить страницу», и как компенсировать лояльность пользователей, которая бесценна и снижается от таких падений
У нас такая же история, но обычно в этих случаях говорят — сами виноваты. На других надейся, а сам не плошай.
Так списания за диск идут! Вот их в первую очередь нужно компенсировать независимо от «компенсаций Оверсана».
А в оферте о предоставлении услуг от компании Clodo прописано, что они несут ответственность за убытки, понесенные клиентом по причине возникновения подобных ситуаций?
Ну как бы п.7 «Регламент пользования услугами Оператора (далее — Регламент)» гласит:
Оператор не несет ответственности по претензиям Абонента к качеству соединения с сетью Интернет, связанным с качеством функционирования сетей других провайдеров, политикой обмена трафиком между провайдерами, с функционированием оборудования и программного обеспечения Абонента и другими обстоятельствами, находящимися вне зоны компетенции, влияния и контроля Оператора.
И как бы, лично я, не знаю компаний, предоставляющих подобные услуги, у которых бы не было этого пункта.
Оператор не несет ответственности по претензиям Абонента к качеству соединения с сетью Интернет, связанным с качеством функционирования сетей других провайдеров, политикой обмена трафиком между провайдерами, с функционированием оборудования и программного обеспечения Абонента и другими обстоятельствами, находящимися вне зоны компетенции, влияния и контроля Оператора.
И как бы, лично я, не знаю компаний, предоставляющих подобные услуги, у которых бы не было этого пункта.
обстоятельствами, находящимися вне зоны компетенции, влияния и контроля Оператора
Почему-то мне кажется, что проблема-то была в зоне компетенции, влияния и контроля Оператора. Другое дело, что конечно же в оферте никакие компенсации за убытки не предусмотрены — услуги по договорам с таким пунктом стОят совсем других денег.
Почему-то мне кажется, что проблема-то была в зоне компетенции, влияния и контроля Оператора. Другое дело, что конечно же в оферте никакие компенсации за убытки не предусмотрены — услуги по договорам с таким пунктом стОят совсем других денег.
Насколько я понимаю Clodo арендует стойки в ДЦ, и если их правда и письмо в «шапке» действительно от Оверсана, то поясните каким образом Clodo может быть в компетенции над криворукими инженерами ДЦ?
за что заплатили то и получили
НЛО прилетело и опубликовало эту надпись здесь
Почему-то вспомнилось это —
habrahabr.ru/company/oversun-mercury/blog/87503/ и вот это — nnm.ru/print/Boomburum/istoriya_odnogo_data-centra/
habrahabr.ru/company/oversun-mercury/blog/87503/ и вот это — nnm.ru/print/Boomburum/istoriya_odnogo_data-centra/
Стабильность питания обеспечивается множеством источников бесперебойного питания и дизель-генераторными установками.
Если верить докладчикам, то в случае пропадания питания «из вне», генераторы смогут обеспечить полноценную работу всего ДЦ на протяжении десятка часов (без подвоза дополнительного горючего). И да, доступность электропитания – 99.982%.
никакие генераторы не спасут, если кто-то рубанет автомат уже «чистого» питания…
Цитата по первой ссылке:
«И в таких, прямо сказать, неблагоприятных условиях мы должны выполнять обязательства уже перед собственными клиентами. А им и дела нет до того, что где-то нетрезвый энергетик перепутал рубильники»
Да уж :)
«И в таких, прямо сказать, неблагоприятных условиях мы должны выполнять обязательства уже перед собственными клиентами. А им и дела нет до того, что где-то нетрезвый энергетик перепутал рубильники»
Да уж :)
"… Стабильность питания обеспечивается множеством источников бесперебойного питания и дизель-генераторными установками..., а также высокопрофессионально криворуким техническим персоналом, который даже в кромешной тьме найдет нужный рубильник!"
Лично я с тенерпением жду официального объяснения «ошибки» инженера, которая привела к многочасовому простою (если конечно это «ошибка инженера»).
И еще, может кто-то подскажет, инженеры действительно такие тугодумы, если ссылаются на временные параметры в отключении питания? Они типа че там не знают какие клиенты у них в ДЦ и что для них даже самое кратковременное отключение питания — это часы простоя? И эти люди предлагают услуги Оверсан-Скалакси?
Лично я с тенерпением жду официального объяснения «ошибки» инженера, которая привела к многочасовому простою (если конечно это «ошибка инженера»).
И еще, может кто-то подскажет, инженеры действительно такие тугодумы, если ссылаются на временные параметры в отключении питания? Они типа че там не знают какие клиенты у них в ДЦ и что для них даже самое кратковременное отключение питания — это часы простоя? И эти люди предлагают услуги Оверсан-Скалакси?
Может быть кто-нибудь из «Оверсана» что-то наконец скажет?
sarcasm Ну овесану теперь осталось еще сгореть с несработавшей системой пожаротушения и тогда можно считать попил 100% успешным. /sarcasm
Как же не вовремя оно легло.
Выздоравливайте быстрее…
Стабильно раз в месяц :) Больше 40 минут лежим. Что будет предпринято в этот раз?
В данной ситуации с нашей стороны вина лишь в выборе дата-центра. Вообще то, что проблема задела в основном clodo, заставляет нас сильно задуматься о возможности дальнейшего нахождения в ДЦ рядом с конкурентами. Особенно учитывая, что инженер Оверсана заявил, что причина аварии — человеческий фактор.
То есть существуют варианты по выбору датацентра и возможна даже смена ДЦ?
Технически это возможно, но требует от нас капитальных затрат, причем немалых.
Ясно. Надеюсь, что ситуация разрешится меньшими потерями, так как реализованная вами платформа очень приятна в использовании. Желаю успехов.
P.S: но всё же приходится держать резерв под приложения на сторонних площадках, м.б. имеет смысл сделать как у заграничных хостингов дополнительный дц для создания сервера?
P.S: но всё же приходится держать резерв под приложения на сторонних площадках, м.б. имеет смысл сделать как у заграничных хостингов дополнительный дц для создания сервера?
По моему это какая-то проказа Оверсана.
У меня это вызывает какие-то странные чувства. Надеюсь у Вас скоро все будет отлично.
У меня это вызывает какие-то странные чувства. Надеюсь у Вас скоро все будет отлично.
У меня тоже первая мысль была — «Оверсан сливает конкурентов». У Оверсана тоже ведь есть scaled-решения.
У Оверсан-а есть Скалакси scalaxy.ru, якобы живущие своей жизнью.
Если учесть что технологии Скалакси на начальном этапе вместе с частью сотрудников перетекли в Клодо, то можно заподозрить тут попытку слива клиентов, но мне кажется что тут скорее всего хромает дисциплина инженеров в ДЦ.
Оверсан явно не готов распрощаться с Клодо, надо же деньги государству возвращать за мега стройку-роспил.
Если учесть что технологии Скалакси на начальном этапе вместе с частью сотрудников перетекли в Клодо, то можно заподозрить тут попытку слива клиентов, но мне кажется что тут скорее всего хромает дисциплина инженеров в ДЦ.
Оверсан явно не готов распрощаться с Клодо, надо же деньги государству возвращать за мега стройку-роспил.
Приятно что вы сообщаете об этом оперативно на хабре, еще бы в панели управления уведомляли.
А то после нажатия кнопки «Перезагрузить» и отсутствии признаков жизни от VPS начинаешь думать что то произошло именно с твоим сервером.
А то после нажатия кнопки «Перезагрузить» и отсутствии признаков жизни от VPS начинаешь думать что то произошло именно с твоим сервером.
>электричество лишь “моргнуло”
facepalm.jpg
А вообще какой-то проблемный оверсан получается, не находите? И всё это несмотря на десятки красивых фотографий…
facepalm.jpg
А вообще какой-то проблемный оверсан получается, не находите? И всё это несмотря на десятки красивых фотографий…
И особенно радует описание с сайта:
Энергообеспечение
Электроснабжение дата-центра обеспечивается двумя независимыми вводами от трансформаторных подстанций (первая категория надежности по ПУЭ). Стабильность подачи питания поддерживается ИБП производства компании AEG (Германия) и дизель-генераторными установками (ДГУ) FG Wilson (Великобритания). Надежность питания оборудования в стойке гарантируется двойным независимым электроснабжением. Схема резервирования питания — N+1. Доступность электропитания — 99,982%.
Энергообеспечение
Электроснабжение дата-центра обеспечивается двумя независимыми вводами от трансформаторных подстанций (первая категория надежности по ПУЭ). Стабильность подачи питания поддерживается ИБП производства компании AEG (Германия) и дизель-генераторными установками (ДГУ) FG Wilson (Великобритания). Надежность питания оборудования в стойке гарантируется двойным независимым электроснабжением. Схема резервирования питания — N+1. Доступность электропитания — 99,982%.
Мдя… 0,018% это и есть тот пресловутый человеческий факор. Все эти ПУЭ, N+1 и прочее, ничто, против дебилов, уборщиц и совковой конкуренции!
Купить оборудования за миллионы могут, а обучить несколько человек аккуратно убираться/администрировать/набирать не дебилов что-то не позволяет.
Это и есть дебилы и совковая конкуренция. Купить оборудования на миллионы и отправить на уборку бабку за гроши.
Ошибка инженера — бабка уборщица шваркнула шваброй по шнурам питания?
Ошибка начальства: наняли бабку-уборщицу, вместо хоть теоретически разбирающегося в предмете человека.
На апрель 2010г. диз. генератор еще не был готов к запуску так как не хватало какие-то деталей и было еще много мелочи и недоделок.
Мне рассказывали сотрудники, когда в Оверсан приходили журналисты смотреть на красивые черные стойки специально для них старший инженер доставал мониторы и включал якобы рабочую систему мониторинга ))
Мне рассказывали сотрудники, когда в Оверсан приходили журналисты смотреть на красивые черные стойки специально для них старший инженер доставал мониторы и включал якобы рабочую систему мониторинга ))
В стойку надо два питала от разных фаз вести для победы надо подобными случаями.
А вообще, оверсан — караван и кто еще там раздут рекламой, простые дц уровня надежности 2+.
До 28 часов простоя в год, если кто не в курсе, сколько на рекламу денег не трать и какие золотые унитазы там не ставь.
А вообще, оверсан — караван и кто еще там раздут рекламой, простые дц уровня надежности 2+.
До 28 часов простоя в год, если кто не в курсе, сколько на рекламу денег не трать и какие золотые унитазы там не ставь.
Молотком оверсану по голове надо за такое настучать. Почуяли что Clodo намного лучше и удобнее их сервиса. И сделали чтобы «электричество моргнуло». В надежде что все от них убегут. Шыш! Не на тех напали!
Я еще больше вцеплюсь в Clodo и их защиту. Буду их верным пользователем!
Я еще больше вцеплюсь в Clodo и их защиту. Буду их верным пользователем!
— А что у вас с электричеством?
— Оно моргнуло
— Оно моргнуло
«Моргнуло», «человеческий фактор»… — да просто приятно, наверное, сервер конкурента пнуть.
Конечно, сейчас все побегут к скалакси, валить Вам надо оттуда…
Не побежим, там дороже:) А у нас денег нет, только если продать что-нибудь ненужное.
Так скалакси это и есть Оверсан, в котором сейчас сбой.
Грустно, снова грустно
Восстанавливайтесь быстрее!
А теперь вопрос к супер-пупер-мега надежному Оверсан: получается неоправданно цены у вас завышены за надежность — надёжность мнимая.
А теперь вопрос к супер-пупер-мега надежному Оверсан: получается неоправданно цены у вас завышены за надежность — надёжность мнимая.
Как-то очень долго идёт запуск ваших систем…
можете озвучить примерное время, через сколько сервера поднимутся?
С достаточно большой вероятностью уложимся в час.
Итого простой будет 2 часа, обидно.
не уложились
Час прошёл. Как у вас обстоят дела? Нужны более точные сроки, пусть с запасом.
Админ Вася попутал педали
Хайрез можно?
В гугле откройте закладку с картинками и наберите «орудуют дебилы» :)
В свое время лично перерисовывал в SVG: files.whitequark.org/idiots/
это не «моргнуло»
это называется «просадка напряжения»
либо кто то счелкнул выключателем. иначе я не могу представить причем тут человеческий фактор
это называется «просадка напряжения»
либо кто то счелкнул выключателем. иначе я не могу представить причем тут человеческий фактор
То что щелкнули выключателем подтвердил инженер дата-центра
Не ДЦ, а сказка. Ходят себе, щёлкают рубильники, похоже все кому не лень :)
from: bash.org
xxx: сижу, похмелье, пью зеленый чай
xxx: подлетает начальник, шевелит усами, кричит: «у эксплуатации проблемы, не могут скип отправить, срочно разберись, помоги»
xxx: напрягаю мозг, звоню, отвечает дежурный, спрашиваю: «сменный? Сзади шкаф ШК1, там реле K2Q, зажми, 5 секунд подожди, программа циклов и программа подач сбросятся на начальные позиции»
xxx: жду. На том конце трубка лежит на столе, оператор ищет реле. Жду. Тут у него трели звонков телефонных, а на наладочном объекте вроде некому звонить, мастер печи еще не парится, остальные и подавно
xxx: опускаю глаза… Не ту страничку открыл в блокноте, не на тот завод позвонил… Тихонько кладу трубку.
xxx: сижу, похмелье, пью зеленый чай
xxx: сижу, похмелье, пью зеленый чай
xxx: подлетает начальник, шевелит усами, кричит: «у эксплуатации проблемы, не могут скип отправить, срочно разберись, помоги»
xxx: напрягаю мозг, звоню, отвечает дежурный, спрашиваю: «сменный? Сзади шкаф ШК1, там реле K2Q, зажми, 5 секунд подожди, программа циклов и программа подач сбросятся на начальные позиции»
xxx: жду. На том конце трубка лежит на столе, оператор ищет реле. Жду. Тут у него трели звонков телефонных, а на наладочном объекте вроде некому звонить, мастер печи еще не парится, остальные и подавно
xxx: опускаю глаза… Не ту страничку открыл в блокноте, не на тот завод позвонил… Тихонько кладу трубку.
xxx: сижу, похмелье, пью зеленый чай
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
Электричество «мигнуло» не на всех наших стойках.
У меня лежат 2 из 4-х…
Что ж клиентов жизнь то не учит
Кажется, что проблемы с кратковременным отключением питания типа «мигнуло» должен решать поставщик услуг размещения оборудования.
Решение поставщика — «сейчас питание на стойки подается в штатном режиме»
не поленился найти объявленные хар-ки, они не плохо звучат на бумаге:
Электроснабжение дата-центра обеспечивается двумя независимыми вводами от трансформаторных подстанций (первая категория надежности по ПУЭ). Стабильность подачи питания поддерживается ИБП производства компании AEG (Германия) и дизель-генераторными установками (ДГУ) FG Wilson (Великобритания). Надежность питания оборудования в стойке гарантируется двойным независимым электроснабжением. Схема резервирования питания — N+1. Доступность электропитания — 99,982%.
Электроснабжение дата-центра обеспечивается двумя независимыми вводами от трансформаторных подстанций (первая категория надежности по ПУЭ). Стабильность подачи питания поддерживается ИБП производства компании AEG (Германия) и дизель-генераторными установками (ДГУ) FG Wilson (Великобритания). Надежность питания оборудования в стойке гарантируется двойным независимым электроснабжением. Схема резервирования питания — N+1. Доступность электропитания — 99,982%.
Картинка с доклада на spbcode (не все так хорошо с облаками, как это рекламируют):
Я так и не понял, почему не сработали хваленые системы резервного питания?
Питание отключили уже на стойке, как я понимаю…
Официальный ответ нам обещали прислать в понедельник, так как сейчас руководства нет в офисе. Пока мы довольствуемся только ответом по e-mail:
============
Максим, еще раз здравствуйте.
Главный инженер службы эксплуатации дата-центра, к сожалению, не полномочен выступать от лица компании с письменным обращением о произошедшем сбое. Сейчас мы готовы дать ответ только в электронном виде:
Сегодня 20.05.2011г. в 12.50 в связи с ошибкой инженера произошло кратковременное (менее 1 минуты) падение электоэнергии в дата-центре, которое затронуло часть оборудования.
Мы приносим свои извинения за возникший инцидент и можем гарантировать, что исключили возможность повторения подобной ситуации в будущем.
============
Ждем в понедельник официальное письмо
============
Максим, еще раз здравствуйте.
Главный инженер службы эксплуатации дата-центра, к сожалению, не полномочен выступать от лица компании с письменным обращением о произошедшем сбое. Сейчас мы готовы дать ответ только в электронном виде:
Сегодня 20.05.2011г. в 12.50 в связи с ошибкой инженера произошло кратковременное (менее 1 минуты) падение электоэнергии в дата-центре, которое затронуло часть оборудования.
Мы приносим свои извинения за возникший инцидент и можем гарантировать, что исключили возможность повторения подобной ситуации в будущем.
============
Ждем в понедельник официальное письмо
За выходные что нибудь придумают, не переживайте…
Интересно как они исключили возможность повторения такой ситуации в будущем? Уволили это инженера?
Нет, просто пообещали. Так сказать, ни к чему не обязывающее обещание )
Перевесили ярлычек с «Клодо» на пустую стойку :)
В прошлый раз Клодо в почте тоже написали что исключили этот фактор, 1 в 1 было письмо :) Тоже было лишь такое предположение.
Мы его у себя исключили. Но за действия третьих лиц мы никак не можем поручиться.
— «Ну и что нам с тобой делать Бородач?»
— «Понять и простить»
— «Понять и простить»
Рубильник был главным с ярлычком Clodo :)
Потому что они стоят до рубильника…
«worldoftanks_ru 14:08:42, 20 мая 2011 г.
В московском дата-центре проблемы с электропитанием. Ждем, пока всё устранят. Приносим свои извинения. =(»
Дак вот где хостятся теперь сервера WOT
В московском дата-центре проблемы с электропитанием. Ждем, пока всё устранят. Приносим свои извинения. =(»
Дак вот где хостятся теперь сервера WOT
Мой так и не поднялся. При попытке ребутнуть в панели «Неизвестаня ошибка»
Не надо пытаться самостоятельно что то сделать. Мы сами все запустим.
Ок. Просто «оборудование начало включаться примерно через 25-26 минут после отключения… » расценил как то, что уже должно работать, учитывая что сейчас 15:10.
Делайте…
Делайте…
Включились железки. Облако это не только железки но и ПО. Старт всего комплекса занимает какое то время.
Во-во, именно эта проблема меня и беспокоит больше всего. Помимо того, что синхронный старт клиентов — это дикий всплеск нагрузки, то и количество машин ставит вопрос о том, как долго будет идти выход на штатные показатели.
сегментируй меньшими кусками, типа: два стора, 6 серверов. каждый такой сегмент поднимается не быстро, но за то ты сможешь запустить все сегменты одновременно.
Эта проблема понятна, понятна так же идея сегментирования, но очень много вопросов завязано на централизованное управление — пустить каждый компонент в свободное плавание никто не рискует (мы, по-крайней мере, нет), а централизованная (хоть вся из себя кластерная) система всегда точка затыка.
Пока до этого не дошли руки, но всю архитектуру нужно серьёзно менять, чтобы делать облако не только на уровне клиента, но и в рамках management-структур…
Пока до этого не дошли руки, но всю архитектуру нужно серьёзно менять, чтобы делать облако не только на уровне клиента, но и в рамках management-структур…
Подумать над распределенной системой управления? в принципе запасной управляющий хост может висеть вообще где-то у конкурентов и рулить по vpn работой сегментов облака. Биллинг понятное дело туда не вынесешь, но тут уж лучше пол дня биллинга потерять, чем аптайма.
Не-не-не, это проблема другого уровня.
Например, когда машина запускается, ей нужно иметь специфичные настройки. Фильтрация IP на интерфейсе, настройки регуляции памяти и т.д.
Где их брать? Когда «всё живое» — эти настройки хранятся в централизованной БД, а кешированная копия — в памяти обслуживающего хоста. Штатно предполагается, что централизованная система может лечь ненадолго, а хосты продолжат работать на кешированной копии. Альтернативно, если ложится хост, он ждёт ответа централизованной системы перед первыми запусками.
А теперь представим, что у нас «старт всего». Все ждут централизованной системы, остальные в это время имеют race за ресурсы и т.д… Тут простых решений нет, нужно садиться и делить администрирование на зоны — а это тяжело и опасно, потому что можно запросто получить конфликтную/противоречивую информацию в разных зонах…
Например, когда машина запускается, ей нужно иметь специфичные настройки. Фильтрация IP на интерфейсе, настройки регуляции памяти и т.д.
Где их брать? Когда «всё живое» — эти настройки хранятся в централизованной БД, а кешированная копия — в памяти обслуживающего хоста. Штатно предполагается, что централизованная система может лечь ненадолго, а хосты продолжат работать на кешированной копии. Альтернативно, если ложится хост, он ждёт ответа централизованной системы перед первыми запусками.
А теперь представим, что у нас «старт всего». Все ждут централизованной системы, остальные в это время имеют race за ресурсы и т.д… Тут простых решений нет, нужно садиться и делить администрирование на зоны — а это тяжело и опасно, потому что можно запросто получить конфликтную/противоречивую информацию в разных зонах…
Рисков не особо много и они нормально купируются. Другое дело, что провайдеру нужно решить для себя, стоит ли тратить время и менять систему для такой редкой ситуации как эта. Наверное, если разница будет между 1 часом и 6 часами, то стоит.
Децентрализация, конечно, ускоряет значительно — когда у TrueVDS была похожая ситуация с аварийным обесточиванием, на выход в рабочий режим 90% машин потребовалось около 30 минут. Хотя в основом это из-за организации дисковой системы получилось, и это был скорее побочный эффект, так как цель обеспечивать в первую очередь быстрый старт после аварий не ставилась.
Но у вас ведь XCP? У меня было впечатление, что там настройки всех гостей хранятся в децентрализованном сторедже средствами самого XCP. Что должно автоматически решать вопрос и избыточного хранения настроек, и быстрого старта, Или это не так?
Децентрализация, конечно, ускоряет значительно — когда у TrueVDS была похожая ситуация с аварийным обесточиванием, на выход в рабочий режим 90% машин потребовалось около 30 минут. Хотя в основом это из-за организации дисковой системы получилось, и это был скорее побочный эффект, так как цель обеспечивать в первую очередь быстрый старт после аварий не ставилась.
Но у вас ведь XCP? У меня было впечатление, что там настройки всех гостей хранятся в децентрализованном сторедже средствами самого XCP. Что должно автоматически решать вопрос и избыточного хранения настроек, и быстрого старта, Или это не так?
У нас XCP только как «middleware», сверху там много своего.
Кроме того, у XCP хранение-то информации о пуле децентрализовано, а вот операции — централизованы и проходят через мастера. Так что в наш прошлый ляп с рейдом (около часа даун) 10 минут был даун и 50 минут — старт клиентских машин. Хоть там и был какой-никакой параллелизм, но очень ограниченный.
Кроме того, у XCP хранение-то информации о пуле децентрализовано, а вот операции — централизованы и проходят через мастера. Так что в наш прошлый ляп с рейдом (около часа даун) 10 минут был даун и 50 минут — старт клиентских машин. Хоть там и был какой-никакой параллелизм, но очень ограниченный.
НЛО прилетело и опубликовало эту надпись здесь
Буквально за 20 минут до сбоя оплатили услуги.
И тут такая задница.
И тут такая задница.
У меня ни один сервер не поднялся.
Есть тут счастливчики?
Есть тут счастливчики?
Разговор двух админов:
— А у меня вчера друг за пять минут сервер сломал…
— Он что, хакер?!
— Нет, он просто дурак!!!
— А у меня вчера друг за пять минут сервер сломал…
— Он что, хакер?!
— Нет, он просто дурак!!!
Некоторые оплатили на год… есть такие
Серваки были за упсами, а какой-нить рутер без. Это нормально для серьезного рутера подниматься 20мин))
Это все еще та же страна… могли и такую схему запустить в работу
Это все еще та же страна… могли и такую схему запустить в работу
3 часа лежать это уже не серьезно.
Попробую сейчас объяснить это моему начальству:)
Уже почти 4 часа даунтайм. Печально же.
Простите, можно узнать, когда, ориентировочно, всех включат?
А где вы clodo.ru хостите?
Проясните ситуацию. Оверсан и Clodo.ru — партнеры?
Если так, то Оверсан не слишком то честный партнер. В одной из прошлых статей они (Оверсан Скалакси) довольно нелестно отзывались о Clodo.ru и несколько раз подчеркивали что последние используют устаревшую версию их оборудования.
И вот теперь устроили им отключение стоек, как бы случайно (лично я в такие случайности не верю).
В общем, если я все правильно понял — то рекомендую Clodo.ru отказаться от такого «партнерства». Иначе это тупик.
Если так, то Оверсан не слишком то честный партнер. В одной из прошлых статей они (Оверсан Скалакси) довольно нелестно отзывались о Clodo.ru и несколько раз подчеркивали что последние используют устаревшую версию их оборудования.
И вот теперь устроили им отключение стоек, как бы случайно (лично я в такие случайности не верю).
В общем, если я все правильно понял — то рекомендую Clodo.ru отказаться от такого «партнерства». Иначе это тупик.
МЫ являемся клиентами ДЦ Оверсан-Меркурий — арендуем у них стойки.
Скалакси предположили, что мы используем устаревшую версию их программной архитектуры. Не оборудования.
Скалакси предположили, что мы используем устаревшую версию их программной архитектуры. Не оборудования.
>Скалакси предположили, что мы используем устаревшую версию их программной архитектуры. Не оборудования
Точно, прошу прощения.
ДЦ Оверсан-Меркурий и Оверсан-Скалакси — это одна и так же компания (т.е. те самые, которые писали порочащую статью на Хабре)?
Точно, прошу прощения.
ДЦ Оверсан-Меркурий и Оверсан-Скалакси — это одна и так же компания (т.е. те самые, которые писали порочащую статью на Хабре)?
ДЦ Оверсан-Меркурий официально сообщил нам, что статья опубликованная в блоге Оверсан является личным мнением их технического директора Дмитрия Лоханского и непосредственно Оверсан не имеет к этому отношения.
а что за статья? можно ссылочку?
Очень подозрительно что первоначальная архитектура СХД в Клодо в точности совпадает с той, которая была у Скалакси изначально, причем включаю конфигурацию железа. Позже Скалакси от нее отказалась, перейдя на другую а вы просто нарезали GPFS на несколько частей чтобы быстрее восстанавливаться.
Кроме того известно что некоторые из сотрудников Скалакси перешли в Клодо свое время, принеся нужные технологии и теперь Скалакси в лице Оверсана вполне возможно точит зуб на Клово.
Кроме того известно что некоторые из сотрудников Скалакси перешли в Клодо свое время, принеся нужные технологии и теперь Скалакси в лице Оверсана вполне возможно точит зуб на Клово.
Почему Вы так уверенно говорите о нашей архитектуре и о том что у нас работают бывшие сотрудники Скалакси? У Вас есть какая то информация которой нет у генерального директора Clodo?
бред не несите — в свое время никто из ключевых сотрудников оверсана не уходил
Приведу свои доводы:
1. Д. Лоханский в своем блоге habrahabr.ru/company/oversun/blog/117260/ явно пишет
«Clodo — коллеги, работающие с первой версией нашей архитектуры 2008 года, IBM GPFS хранилище, решение на базе Xen.» — если у Клодо архитектура другая получается что он ВРЕТ?
Если смотреть старые скриншоты архитектуры скалакси и нынешней Клодо (до того как они попилили GPFS на несколько частей) начинаешь верить Лоханскому.
2. Подозрительное сходство в использовании оборудования. Самое странное что и Скалакси и Клодо используют очень дорогой Infiniband. Заметьте что больше ни один рус хостинг подобные штуки не ставит — они очень дорогие и сильно снижают окупаемость хостинга. Скалакси можно понять здесь — они себя изначально позиционировали под размещение гос проектов и рос космоса и денег из гос бюджета не жалели а вот с Клодо — тут непонятны причины.
Исходя из этого можно заключить что технологии Скалакси каким-то образом попали в Клодо.
Вопрос как?
По логике вещей ответ тут только один — люди пришли и помогли/научили/поставили. Это должны быть люди которые умеют работать с очень ДОРОГИМ Infiniband, f5 и тд. Должны разбираться в cхемах построения инфраструктуры с использованием Infiniband для организации хостинга.
Кто мог за короткий срок помочь создать нужную инфраструктуру?
Ответ тоже навязывается сам — кто-то из организации, которая уже это сделала или этим занималась. На тот момент это был один хостинг — Скалакси.
Какие образом и кто помог Клодо освоить все эти технологии?
Кто-то из сотрудников перешел в Клодо, а может и не проходил а находился всегда в стороне, показывал, настраивал, учил — мне лично все равно. Для меня важнее последствия.
А последствия я лично вижу следующие:
1. У Оверсана есть проблемы с организацией работы — сегодня они всем это доказали
2 Клодо использует технологии Скалакси которых добился явно меньшими затратами за что Скалакси держит зуб на Клодо и и своих тестах их выставляет в конец списка облачных хостеров
1. Д. Лоханский в своем блоге habrahabr.ru/company/oversun/blog/117260/ явно пишет
«Clodo — коллеги, работающие с первой версией нашей архитектуры 2008 года, IBM GPFS хранилище, решение на базе Xen.» — если у Клодо архитектура другая получается что он ВРЕТ?
Если смотреть старые скриншоты архитектуры скалакси и нынешней Клодо (до того как они попилили GPFS на несколько частей) начинаешь верить Лоханскому.
2. Подозрительное сходство в использовании оборудования. Самое странное что и Скалакси и Клодо используют очень дорогой Infiniband. Заметьте что больше ни один рус хостинг подобные штуки не ставит — они очень дорогие и сильно снижают окупаемость хостинга. Скалакси можно понять здесь — они себя изначально позиционировали под размещение гос проектов и рос космоса и денег из гос бюджета не жалели а вот с Клодо — тут непонятны причины.
Исходя из этого можно заключить что технологии Скалакси каким-то образом попали в Клодо.
Вопрос как?
По логике вещей ответ тут только один — люди пришли и помогли/научили/поставили. Это должны быть люди которые умеют работать с очень ДОРОГИМ Infiniband, f5 и тд. Должны разбираться в cхемах построения инфраструктуры с использованием Infiniband для организации хостинга.
Кто мог за короткий срок помочь создать нужную инфраструктуру?
Ответ тоже навязывается сам — кто-то из организации, которая уже это сделала или этим занималась. На тот момент это был один хостинг — Скалакси.
Какие образом и кто помог Клодо освоить все эти технологии?
Кто-то из сотрудников перешел в Клодо, а может и не проходил а находился всегда в стороне, показывал, настраивал, учил — мне лично все равно. Для меня важнее последствия.
А последствия я лично вижу следующие:
1. У Оверсана есть проблемы с организацией работы — сегодня они всем это доказали
2 Клодо использует технологии Скалакси которых добился явно меньшими затратами за что Скалакси держит зуб на Клодо и и своих тестах их выставляет в конец списка облачных хостеров
Логика у вас просто «железная». И все так складно в «анализе» архитектуры. Особенно порадовал «попиленный на зоны GPFS», монополия Скалакси на infiniband и предположение, что специалисты, которые умеют работать с технологиями есть только в Мрскве и все они трудятся в Скалакси.
1. До запуска Скалакси было офигенное кол-во конференций, на которых, в том числе и Дима, довольно подробно рассказывали об архитектуре. то что прошло очень много времени от раскрытия архитектуры до реального запуска Скалакси и что за это время можно было построить работающую систему — явно не проблема Клодо.
2. То что пишет Дима, надо заметить не в своем, а корпоративном блоге — это его личное мнение и только. Если было бы иначе — есть суды, есть закон о коммерческой тайне, как умеет судится Оверсан все знают. Но, на сколько я знаю, никаких реальных доказательств слива нет — только логические выводы. Собственно поэтому наверное и исков нет.
3. Похожесть панелей очень относительная. Они похожи только в общих, очевидных подходах. Кстати доступ к интерфейсам панели был далеко не у всех. А так чтоб и к описании архитектуры и к интерфейсам — так вообще у единиц. Большая часть из которых были руководители.
4. Мне кажется естественным возникновение вопроса о том, откуда такие знания о конкуренте? Мне кажется, что в отличии от, Клодо так активно не участвовало в конференциях и не раскрывало столь подробно свою архитектуру.
Еще раз повторюсь — никто из ключевых сотрудников не уходил из Скалакси в обсуждаемый период (когда передача данных могла бы дать преимущество).
2. То что пишет Дима, надо заметить не в своем, а корпоративном блоге — это его личное мнение и только. Если было бы иначе — есть суды, есть закон о коммерческой тайне, как умеет судится Оверсан все знают. Но, на сколько я знаю, никаких реальных доказательств слива нет — только логические выводы. Собственно поэтому наверное и исков нет.
3. Похожесть панелей очень относительная. Они похожи только в общих, очевидных подходах. Кстати доступ к интерфейсам панели был далеко не у всех. А так чтоб и к описании архитектуры и к интерфейсам — так вообще у единиц. Большая часть из которых были руководители.
4. Мне кажется естественным возникновение вопроса о том, откуда такие знания о конкуренте? Мне кажется, что в отличии от, Клодо так активно не участвовало в конференциях и не раскрывало столь подробно свою архитектуру.
Еще раз повторюсь — никто из ключевых сотрудников не уходил из Скалакси в обсуждаемый период (когда передача данных могла бы дать преимущество).
так, это уже не смешно, когда запустят все машины?
сижу жду пока начнут матом ругаться, а вообще тоскливо
Уже почти 7 часов дауна, негодую :(
Думаю над альтернативами.
Думаю над альтернативами.
Один сервер поднялся, второй все еще лежит.
Ответ саппорта:
Здравствуйте.
Быстрее не получится. Сервера запускаются в порядке очереди.
Ответ саппорта:
Здравствуйте.
Быстрее не получится. Сервера запускаются в порядке очереди.
Странно что на форуме самого clodo тишина. Хорошо хоть здесь какая-то информация есть. Машина запущена, но, судя по всему, не имеет доступа к диску. Перезапустить не получается:«Действия временно недоступны».
у меня оба поднялись
А я у вас зарегистрировался! Давно хотел посмотреть на vps — и вот собрался.
Нравится.
Нравится.
Что-то мне кажется, что у Скалакси, такого «моргания» не будет никогда… Моя VPSка как пару часов бегает.
ps: и правда бы лучше сделали глобальное уведомление/рассылку о проблеме, а так бедный саппорт на однотипные тикеты отвечать.
ps: и правда бы лучше сделали глобальное уведомление/рассылку о проблеме, а так бедный саппорт на однотипные тикеты отвечать.
можем гарантировать, что исключили возможность повторения подобной ситуации в будущем.
Примотали скотчем все вилки к розеткам
Примотали скотчем все вилки к розеткам
НЛО прилетело и опубликовало эту надпись здесь
ув. представители Colodo, вы же знаете что критическая единица потребления электропитания — стойка. ну кто же вам мешает распихать все свои сервера по разным стойкам, таким образом чтобы обесточивание _1_ стойки не приводило к фаталам? вам лениво поговорить с оверсаном о том чтобы хитро осуществить эл. коммуникации?
Это такая проблема поставить по 1му дополнительному UPS на каждый ключевой сервер прямо в стойку и запитаться напрямую от него?
у нас все ржут теперь: над новый вид безоблачного хостинга или как компенсировать ущерб репутации клиентов чтобы слово «клоуны» не примешивалось к бренду.
Это такая проблема поставить по 1му дополнительному UPS на каждый ключевой сервер прямо в стойку и запитаться напрямую от него?
у нас все ржут теперь: над новый вид безоблачного хостинга или как компенсировать ущерб репутации клиентов чтобы слово «клоуны» не примешивалось к бренду.
ну все как всегда, и заминусовали, и конструктивно не ответили, и деньги не вернули. и заметьте, кроме пустых обещаний — никакого конструктива… впрочем пофиг, всеравно вы не признаете что молодые и несовершенные, и что у вас еще есть куча рисков и проблем. не признаете и на главной не напишете.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Отключение электропитания в дата-центре Оверсан