Comments 235
У Clodo были проблемы начиная с 10, они на сколько я помню у оверсана живут, в итоге умерло несколько серверов, пришлось с бэкапов поднимать.
А то что я два часа локти кусал в ожидании ответа, который просто являлся дубляжем почтовой рассылки?
Ну Вам еще повезло, мне о тот что с сервером что-то не так сообщила система мониторинга, а не clodo или оверсан.
Мне ответили спустя 5 минут после создания тикета, было это примерно в 23 часа…
Так ведь не дубляж. Скорее признание, что в первом письме соврали:
Максимально быстро данная проблема была устранена нашими инженерами...
Как проблема будет устранена, отпишем...
С 10? Это Вы о какой проблеме?
Неожиданно обсыпались диски виртуальных машин.
Потом не мог даже войти в панель управления clodo, так как сообщалось что меня вообще не существует.
Потом не мог даже войти в панель управления clodo, так как сообщалось что меня вообще не существует.
Вчера?
Thu, 10 Feb 2011 11:27:02 +0300 (10.02.2011 18:27:02)
Обнаружено раньше, это первый ответ вашей службы поддержки.
Обнаружено раньше, это первый ответ вашей службы поддержки.
У нас не было аварий 10 февраля. Видимо это был частный случай именно с вашей виртуалкой. Можно номер тикета в личку, посмотрю что это было.
Не знаю что за частный случай но у меня есть ответ вашей службы поддержки.
Тикет в личке
Тикет в личке
Мда… Надо сапорт наказать за такой ответ.
а руководству отрывать яйца;)
Просто у меня 2 аккаунта у Вас, и когда пытался зайти оба говорили что меня нет, правда это длилось всего час, но это же о чем-то да говорит?
Панель может быть недоступна для входа, но это не отражается на работе запущенных виртуальных машин.
ну да :) не отражалось :) машины были в коме
Просто я так и не получил внятного ответа, что у Вас там случилось.
Перечитал тикет, у Вас файловая система посыпалась. Учитывая что в статусах системы в это время не было даже падений нод, могу предположить что проблема была внутри виртуального сервера. Если интересно я в понедельник могу у админов разузнать подробности Вашего случая. Кстати ответили Вам оперативно :)
Ситуация сложная — с одной стороны я должен злорадствовать, с другой стороны любая, самая многократно резервированная система может-таки сказать «йок», так что в этой ситуации могу только посочувствовать им.
Может сказать йок, но в данном случае все это можно избежать — второй массив, репликация, etc.
Эх, теоретики… :-/
При чем тут теоретики? Вы когда-нибудь строили разнесенный ЦОД, с обеспечением отказоустойчивости даже при техногенных катастрофах?
Все таки это сотрудник netappa, так что может быть и строили, строят и будут строить.
Не нужно сравнивать некомпетентность и катастрофы.
Строили, да.
Именно потому никто никогда не говорит и не обещает 100% надежности, а всегда только «много девяток», что «случаи бывают разные», и опыт показывает, что абсолютная надежность, к сожалению, бывает только в теории.
Именно потому никто никогда не говорит и не обещает 100% надежности, а всегда только «много девяток», что «случаи бывают разные», и опыт показывает, что абсолютная надежность, к сожалению, бывает только в теории.
Я же написал, «самая многократно резервированная система». Например, на одном сервере побилась память, он записал ахинею на диск (в район метаданных LVM) и реплицировал их. Кусать зубы? Уже бесполезно.
Ровно так же может навернуться нужное количество дисков в двух рейдах именно в том комплекте, который вынесет все рейды. Не может быть? Не может. Но случается.
А ещё может козлить корзина, я такое один раз видел: она сналача отвалила половину дисков, а потом отвалила другой набор дисков, подключив старые. Разумеется, все метаданные рейда в хлам (и в этом случае никакое количество дисков в рейде не спасёт). Если это произойдёт на двух системах сразу (допустим, битая серия корзин), то опять же, кусать зубы и терпеть.
Ровно так же может навернуться нужное количество дисков в двух рейдах именно в том комплекте, который вынесет все рейды. Не может быть? Не может. Но случается.
А ещё может козлить корзина, я такое один раз видел: она сналача отвалила половину дисков, а потом отвалила другой набор дисков, подключив старые. Разумеется, все метаданные рейда в хлам (и в этом случае никакое количество дисков в рейде не спасёт). Если это произойдёт на двух системах сразу (допустим, битая серия корзин), то опять же, кусать зубы и терпеть.
Кусать зубы [x]
Думаю сегодня появилось много людей которые, уже делают бекапы.
ECC разве не защити от ошибок памяти?
Я думаю, вам всем пора переходить в Макхост ;)
Не знаю как у вас, но моя машина ещё лежит…
Ребята накупили дорогих игрушек (серваков и массивов новомодных) на гос. деньги, а теперь не знают что с ними делать =)
Блеать, видимо не зря была мысль сделать бекап в пятницу… Не сделал.
У меня пока тоже не загружается :( ппц…
У меня пока тоже не загружается :( ппц…
Не знаю как у вас, но моя машина ещё лежит…
Компания Оверсан отключила оборудование «Оверсан-Скалакси» за неуплату.
Никогда не доверял внешним дисковым массивам. Пусть лучше будет 10 не самых надёжных, но независимых, серверов по 5 клиентов на каждом, чем супер-пупер надёжный массив, который завалит всех клиентов разом при поломке.
Дело не в массивах, на западе их используют очень широко и работают без сбоев. А в некомпетентности сотрудников. Особенно в таких компаниях как Оверсан и Скалакси, где состав сотрудников, в том числе руководства, меняется по 3 раза в год.
у них просто пока мало клиентов :)
А как Clodo со Скалакси связана?
это одно и тоже, но 2 разных брэнда, как Оверсан и Оверсан-Скалакси.
Ну макхост как обычно… ненавидит всех кто в Оверсане :)
вы выдумщик и фокусник, не зря в шляпе ходите=)
макхост, вы таки верните мне 30 000 р. и перестаньте мне рассылать свою долбаную рекламу!
А меня просто перестаньте спамить! Я даже никогда не был вашим клиентом!
Я просто удивляюсь как вы умудряетесь так спамить на хабре с ограничением в один коммент в пять минут.
А уточните все-таки, пожалуйста, как Clodo связан с Оверсан Скалакси? Хочется получить информацию, так сказать, из первых рук, без домыслов и прочей чуши :)
Интересуюсь как ваш клиент.
Интересуюсь как ваш клиент.
Мы арендуем в Оверсане стойки и интернет-канал.
Спасибо, теперь буду знать, что надо бояться новостей, подобных этой.
Кстати, от вас не получал никакого уведомления, что был сбой и нужно ребутнуть виртуалку. Если бы не зашел посмотреть на срач в комментах к этой новости и случайно бы не выяснил, что это и меня касается, то и неизвестно сколько бы мои ресурсы были недоступны.
Кстати, от вас не получал никакого уведомления, что был сбой и нужно ребутнуть виртуалку. Если бы не зашел посмотреть на срач в комментах к этой новости и случайно бы не выяснил, что это и меня касается, то и неизвестно сколько бы мои ресурсы были недоступны.
1)По трасерту они хостятся в датацентре оверсана.
tracert clodo.ru
Трассировка маршрута к clodo.ru [188.127.236.4]
с максимальным числом прыжков 30:
8 54 ms 54 ms 53 ms 188.127.254.2
9 53 ms 53 ms 53 ms Mr-O-RTC1-rsw-2.oversun.ru [188.127.254.1]
10 55 ms 55 ms 54 ms Mr-O-RTC4-rsw-1.oversun.ru [94.198.48.158]
11 54 ms 54 ms 54 ms Mr-O-RTC2-rsw-1.oversun.ru [94.198.48.90]
12 52 ms 52 ms 52 ms clodo.ru [188.127.236.4]
2)Так как облако у них вроде как не падало, то наверно у них свое облако.
3)Судя по сайту юрлицо у них тоже свое и зарегано в питере.
Отсюда можно сделать любой вывод, но думаю не стоит, а то хабра превратится в британскую газету sun.
tracert clodo.ru
Трассировка маршрута к clodo.ru [188.127.236.4]
с максимальным числом прыжков 30:
8 54 ms 54 ms 53 ms 188.127.254.2
9 53 ms 53 ms 53 ms Mr-O-RTC1-rsw-2.oversun.ru [188.127.254.1]
10 55 ms 55 ms 54 ms Mr-O-RTC4-rsw-1.oversun.ru [94.198.48.158]
11 54 ms 54 ms 54 ms Mr-O-RTC2-rsw-1.oversun.ru [94.198.48.90]
12 52 ms 52 ms 52 ms clodo.ru [188.127.236.4]
2)Так как облако у них вроде как не падало, то наверно у них свое облако.
3)Судя по сайту юрлицо у них тоже свое и зарегано в питере.
Отсюда можно сделать любой вывод, но думаю не стоит, а то хабра превратится в британскую газету sun.
Там он вам и сказал ;)
Как поздно я очнулся и добрался до топика…
Тем не менее.
Меня зовут Нат, я сотрудник Оверсана.
Ребята из Клодо действительно только арендуют у нас стойки и интернет-канал. У них свой сервис и продукт, у нас — свой (Скалакси).
Соответственно и аварии у одного облачного провайдера не касаются другого. Это совершенно разные кластеры оборудования.
Тем не менее.
Меня зовут Нат, я сотрудник Оверсана.
Ребята из Клодо действительно только арендуют у нас стойки и интернет-канал. У них свой сервис и продукт, у нас — свой (Скалакси).
Соответственно и аварии у одного облачного провайдера не касаются другого. Это совершенно разные кластеры оборудования.
А Вы когда почините? сервер в состоянии вечного «выключается»
На help@scalaxy.ru такие вопросы лучше задавать, или через панель. Желательно ещё указывать аккаунт и какой именно сервер не поднимается.
написал, ответ «восстановление будет протекать долго» меня огорчает.
Только вчера выкупил там площадку, хорошо что проект не успел перенести…
/цитата/
вот это саппорт.
Одмин негодуэ!
/цитата/
буэ на таких саппотеров!
За сегодня-вчера только на хабре прочитал 2 поста на тему «хорошей» поддержки. Это Россия, детка. :"(
вот это саппорт.
Одмин негодуэ!
/цитата/
буэ на таких саппотеров!
За сегодня-вчера только на хабре прочитал 2 поста на тему «хорошей» поддержки. Это Россия, детка. :"(
Упало вчера вечером, лежит до сих пор. Когда починят — не знают сами. На текущий момент это около 16 часов «облачного» простоя.
Замечу, что за последние два с небольшим месяца было шесть инцидентов с дисками, оборудованием и кривым ПО в Оверсане. Все шесть инцидентов приводили к незапланированному отключению серверов и простою. С другой стороны техподдержка круглосуточная и вежливая.
Кагбы ничего личного, но куды бечь?
Замечу, что за последние два с небольшим месяца было шесть инцидентов с дисками, оборудованием и кривым ПО в Оверсане. Все шесть инцидентов приводили к незапланированному отключению серверов и простою. С другой стороны техподдержка круглосуточная и вежливая.
Кагбы ничего личного, но куды бечь?
Да хотя бы сюда linode.com. Реально и без шуток, если хоть раз попробуете там разместить свои проекты никогда уже не вернетесь ни в какие говнооблака в россии.
Реально интересно. Если бы трафик анлим, было бы вообще идеально.
Сколько людей столько и мнений, пол месяца назад с радостью съехали с Linode.
Пинг жуткий. Мне не понравилось.
Не проще за такие деньги сразу взять выделенный сервер? Например, тут: www.hetzner.de/en/hosting/produktmatrix/rootserver-produktmatrix-eq
У хетзнера стоит сервер начального уровня 40$(там цены в евро), он AMD Athlon 64 3700+(одноядерный) и гиг озу. У линоды 40$ стоит чуть меньше половины одного ядра Xeon L5420(по производительности эти пол ядра будут скорее всего выше чем атлон хетзнеровский), и также гиг ОЗУ.
По месту на винте у линоды гораздо меньше конечно 32 гига против 160 гигов. Но зато есть всякие плюшки облачности. Типа апгрейда за 40 минут включая копирование данных.
По месту на винте у линоды гораздо меньше конечно 32 гига против 160 гигов. Но зато есть всякие плюшки облачности. Типа апгрейда за 40 минут включая копирование данных.
За 49 евро возьмите сервер с i7- 4 ядра + 8 гб оперативы
Видел, сервера конечно мощные, только там еще 150 евро для установки платить. Суммарно 270 $ за первый месяц и 65 $ потом. Дороговато выходит сервера добавлять. Да и железо не серверное, тот же софтовый рейд смущает.
270 долларов это примерно 8 тысяч, а потом примерно 2000 в месяц.
Железо там отличное, я такое юзаю в серверах, ни одной сломанной матери, ни одного сломанного проца или памяти, летят только винты. Сервера использую в промышленном масштабе.
Чем он вас смущает, работает и не жужжит.
Железо там отличное, я такое юзаю в серверах, ни одной сломанной матери, ни одного сломанного проца или памяти, летят только винты. Сервера использую в промышленном масштабе.
Чем он вас смущает, работает и не жужжит.
Летящие винты тоже проблема, у линоды летящий винт можно заметить только по небольшому простою.
А насчет чем смущает, да стремно немного использовать память без ECC, ну и последнее время что-то больше отрицательных отзывов стало о нем.
Насчет денег, впринципе конечно немного, но нам пока удобнее с linode работать, так как можно плавно мощность наращивать и над горизонтальной масштабируемостью работать.
А насчет чем смущает, да стремно немного использовать память без ECC, ну и последнее время что-то больше отрицательных отзывов стало о нем.
Насчет денег, впринципе конечно немного, но нам пока удобнее с linode работать, так как можно плавно мощность наращивать и над горизонтальной масштабируемостью работать.
Цены настолько ниже чем в России, что за тебе деньги я могу себе позволить 5 серверов в германии по сравнению с таким же сервером в России.
Для резервирования просто беру два сервера, и все равно выходит дешевле.
Для резервирования просто беру два сервера, и все равно выходит дешевле.
Если проект не только-для-роисси, то Media Temple.
Мне о аварии не сообщили. И судя по статистике ночью всё было хорошо.
В 12:19 по МСК начались проблемы: сервер ушел в масштабирование и не вернулся. Сайты были при этом недоступны.
Открыл тикет в 12:46 — ответил за 3 минуты. После ответа сервер начал отвечать, но в панельке он до сих пор якобы маштабируется. Саппорт сказал, что включение/выключение сервера сейчас недоступно т.к. ведутся работы по утстранению вчерашней аварии.
О аварии узнал с хабра после открытия тикета.
В 12:19 по МСК начались проблемы: сервер ушел в масштабирование и не вернулся. Сайты были при этом недоступны.
Открыл тикет в 12:46 — ответил за 3 минуты. После ответа сервер начал отвечать, но в панельке он до сих пор якобы маштабируется. Саппорт сказал, что включение/выключение сервера сейчас недоступно т.к. ведутся работы по утстранению вчерашней аварии.
О аварии узнал с хабра после открытия тикета.
И опять сервер не отвечает… Печально.
>> Саппорт сказал, что включение/выключение сервера сейчас недоступно
>> т.к. ведутся работы по утстранению вчерашней аварии.
Мне тоже самое написали, причем без указания, когда все починят. Вот это более всего напрягает.
>> т.к. ведутся работы по утстранению вчерашней аварии.
Мне тоже самое написали, причем без указания, когда все починят. Вот это более всего напрягает.
Мне отписали, что все классно и можно запускать сервера (сообщение от сегодняшнего числа, 0:36), но до сих пор не могут запуститься сервера. Грустно.
Ну опять… щас руководство начнет звонить…
Ладно хоть выходные, что будет в понедельник страшно представить, надеюсь пофиксят… ох как надеюсь…
У меня машина висит в стадии «запускается» уже несколько часов.
Отвечают:
Отвечают:
К сожалению, операция включения/выключения сервера в данный момент невозможна. Это связанно с работами, проводимыми в рамках устранения последствий вчерашней аварии.
В ближайшее время работоспособность восстановится.
Пришлите server id в личку.
И что это даст?
Прислал
Не понимаю, зачем писать такое? Ну напишите в личку «Пришлите server id в личку.» Нет. Надо в коментах, чтобы все видели о заботе о клиентах. А то, что сейчас не до Хабра должно быть всем, кто может как-то помочь, так это пофиг. Все заботливые и готовы «взять под личный контроль» и при том написать об этом в газетах в коментах.
Лучше ещё один канал для общения, чем ни одного.
Радиомолчание — это выход? Вряд ли.
Я не про молчание, а про показушную «заботу» о клиентах. Просьбу выслать ID сервера можно было разослать всем в личку, а не писать в комент. И бодрый отчет о решении проблем я так понял немного рановато написали.
Так и есть. Написал, что запустил сервер. Захожу — зелененький )) Но радость длилась не долго, т.к. fs-ы вообще не монтируются ((
Кстати, у меyя тоже сервер зелененьким загорелся после того как я отправил ID. Но не отвечал… Ну, я решил ребутнуть :) Теперь сервер не в состоянии «масштабируется», а в состоянии «перезагружается».
Нужно решение проблемы, а не перекраска сервера из желтого в зеленый.
Обиднее всего, что авария меня не коснулась, а устранение последствий аварии привело к неработоспособности серверов.
Нужно решение проблемы, а не перекраска сервера из желтого в зеленый.
Обиднее всего, что авария меня не коснулась, а устранение последствий аварии привело к неработоспособности серверов.
Как бы хваленые десятые рейды на sas дисках, с многократным резервированием не оказались помойкой на sata дисках. Которая накрылась. Вот это будет номер.
Надеюсь этого не произойдет т.к. вчера слил бэкап баз, а вот свежего бэкапа статики (около 9 гигов) у меня нет…
Я базы кроном тоже бакуплю каждый день на гмаил-сторадж, а вот статику давненько отправил на AWS, теперь нужно придумать, как ее от туда забрать. Но все таки тешат меня надежды, что все обойдется легким испугом.
что такое aws?
Достучался таки до своего сервера. Оказывается он работал, но т.к. включение/выключение заблокировали он замер на двух слотах — ресурсов не хватало и достучаться до него было проблематично.
Когда подключился LA был около 65. Пошаманил — нагрузку снизил. Даже сайты начали грузиться :)
Все данные на месте и целые (вроде).
Когда подключился LA был около 65. Пошаманил — нагрузку снизил. Даже сайты начали грузиться :)
Все данные на месте и целые (вроде).
У меня то же самое
Кстати при общении с поддержкой скалакси в одном из писем сказали что в понедельник рассчитают и зачислят компенсацию за неудобства.
Приветствую!
У нас действительно произошла авария с несколькими нодами данных, в результате чего произошло перемонтирование дисков некоторых клиентских виртуальных машин в режим read-only. Хранилище было восстановлено в течении 15 минут, но потребовались работы по поочередной перезагрузке вычислительных узлов облака, поэтому восстановление работоспособности заняло столь длительное время.
Мы с коллегами изучили эту авария и поняли, что нужно сделать, что бы навсегда избежать таких ситуаций в дальнейшем. Мы уже исправлятем эти недочеты и сделаем нашу систему хранения поистинне железобетонной.
Я от себя лично и от лица компании извиняюсь за сей неприятный момент. Всем пострадавшим будет начислена компенсация. Кроме того, мы решили поделиться с вами промокодом fail2win дающим 500 рублей, что бы вы помогли укрепить наши стены, а может и подсказали куда строиться дальше.
У нас действительно произошла авария с несколькими нодами данных, в результате чего произошло перемонтирование дисков некоторых клиентских виртуальных машин в режим read-only. Хранилище было восстановлено в течении 15 минут, но потребовались работы по поочередной перезагрузке вычислительных узлов облака, поэтому восстановление работоспособности заняло столь длительное время.
Мы с коллегами изучили эту авария и поняли, что нужно сделать, что бы навсегда избежать таких ситуаций в дальнейшем. Мы уже исправлятем эти недочеты и сделаем нашу систему хранения поистинне железобетонной.
Я от себя лично и от лица компании извиняюсь за сей неприятный момент. Всем пострадавшим будет начислена компенсация. Кроме того, мы решили поделиться с вами промокодом fail2win дающим 500 рублей, что бы вы помогли укрепить наши стены, а может и подсказали куда строиться дальше.
не нашел куда вводить промокод
Компенсация в данном случае как мертвому припарки, серверов та НЕТ!
Скиньте в личку ids серверов.
Скинул.
Сервак желтым горит, и не туды и не сюды )
Сервак желтым горит, и не туды и не сюды )
Во во… та же тема.
Оп-па… зря я радовался, что беда прошла мимо… И у меня такая же фигня началась в 14:55 — вначале сервак отключился, теперь висит в состоянии запускается
присоединяюсь
И ещё один… Рано сообщили о победе, видимо.
Тоже скинул.
У меня оба имеющихся сервера сейчас выключены. Можно ли их включать я не знаю — боюсь что опять повиснут при включении. Профиль info@omgovich.ru
говорящая у вас фамилия…
>>Всем пострадавшим будет начислена компенсация.
Ну и где компенсация?
Ну и где компенсация?
Вы пишете в прошедшем времени, будто проблема уже решена и все сервера поднялись. А на самом деле, когда устраните последствия?
Нда, наши облака самые тяжелые облака в мире.
что-то хостинг за хостингом ложится… лезут по незнанию, создавая проблемы клиентам…
Вот интересно. Сколько раз уже обсуждалось, что не нужно размещать важные(да и не важные) проекты в России, кроме проблем это никаких плюсов не имеет. Все технологии устаревшие, специалисты некомпетентные, милиция и государство коррумпированные и тп и тд. И все равно находятся идиоты, которые размещают проекты в Российских дата-центрах, а потом рвут волосы на жопе. «Русский человек любит авось, небось да как-нибудь».
Кстати, взято из новостей на сайте Оверсан:
Разработчики облака, решающего стратегические задачи российского государства и бизнеса, — группа компаний Оверсан и ОАО “Российские космические системы”( это те, которые друг друга мудаками называют habrahabr.ru/blogs/gps/110820/ ).
Не знаю кем надо быть после этого, чтобы размещать там свои проекты=)
ps. у них даже сайт кривой www.oversun.ru/slides/#section4, хотя стоит 10млн рублей=))))
Кстати, взято из новостей на сайте Оверсан:
Разработчики облака, решающего стратегические задачи российского государства и бизнеса, — группа компаний Оверсан и ОАО “Российские космические системы”( это те, которые друг друга мудаками называют habrahabr.ru/blogs/gps/110820/ ).
Не знаю кем надо быть после этого, чтобы размещать там свои проекты=)
ps. у них даже сайт кривой www.oversun.ru/slides/#section4, хотя стоит 10млн рублей=))))
Заработало
Добрый день, коллеги.
Я отвечу на несколько особенно популярных в топике вопросов.
Проблемы, которые возникают у некоторых пользователей при старте серверов сейчас (залипают в желтый, стартуют по полтора часа) — есть следствие ночных проблем, да. Я не буду объяснять всю техническую суть этой проблемы, но она есть, все нормализуется сегодня в течение может еще часа, двух, может и немного дольше.
Тем, кому интересно точное техническое описание проблемы — вполне возможно, что мы опубликуем его чуть позже. Возможно, оно будет интересно вам, да и нашим коллегам.
Хостинг за хостингом ложится — да, заметили вы хорошо. Ложился и раньше, ложится сейчас и будет ложиться в будущем, потому, что хостинг — некая сложная техническая платформа (особенно «облака»), любая сложная техническая платформа падает, как подметил amarao. Хостинг ложится не только в РФ, это уже миф. Вспомните, как ложились дата-центры AWS. Наша с вами задача — создавать и эксплуатировать такие платформы, которые падают не слишком часто (дают адекватный аптайм в 99,999..%) и разрабатывать отказоустойчивые приложения для управления и эксплуатации таких платформ.
Мы понимаем, что никакие компенсации и промо-акции не компенсируют в полном объеме простой ресурсов, упущенную прибыль и так далее, однако сейчас самое лучшее и важное, что можем сделать мы — сконцентрироваться на наискорейшем решении всех проблем их последствий. Но и отмалчиваться мы, естественно, не будем.
Искренне от себя и от компании прошу прощения за это падение. Спасибо за понимание.
Я отвечу на несколько особенно популярных в топике вопросов.
Проблемы, которые возникают у некоторых пользователей при старте серверов сейчас (залипают в желтый, стартуют по полтора часа) — есть следствие ночных проблем, да. Я не буду объяснять всю техническую суть этой проблемы, но она есть, все нормализуется сегодня в течение может еще часа, двух, может и немного дольше.
Тем, кому интересно точное техническое описание проблемы — вполне возможно, что мы опубликуем его чуть позже. Возможно, оно будет интересно вам, да и нашим коллегам.
Хостинг за хостингом ложится — да, заметили вы хорошо. Ложился и раньше, ложится сейчас и будет ложиться в будущем, потому, что хостинг — некая сложная техническая платформа (особенно «облака»), любая сложная техническая платформа падает, как подметил amarao. Хостинг ложится не только в РФ, это уже миф. Вспомните, как ложились дата-центры AWS. Наша с вами задача — создавать и эксплуатировать такие платформы, которые падают не слишком часто (дают адекватный аптайм в 99,999..%) и разрабатывать отказоустойчивые приложения для управления и эксплуатации таких платформ.
Мы понимаем, что никакие компенсации и промо-акции не компенсируют в полном объеме простой ресурсов, упущенную прибыль и так далее, однако сейчас самое лучшее и важное, что можем сделать мы — сконцентрироваться на наискорейшем решении всех проблем их последствий. Но и отмалчиваться мы, естественно, не будем.
Искренне от себя и от компании прошу прощения за это падение. Спасибо за понимание.
Красивое оправдание, но оно не учитывает то, что многим срать почему ваше-чудо облако не работает. И почему вы морочите людям мозги тоже не важно. «хостинг — некая сложная техническая платформа (особенно «облака»)» — это просто отмазка. Если компания гнилая, коей является Оверсан, то никакие технологии и плюшки не помогут. Нат, я бы на твоем месте делал ноги из Оверсана, как сделали все уважающие себя сотрудники.
На текущее состояние мои сервера работаю корректно. Проверьте и ваши :)
Такая же беда.
Завтра же ставлю админу задачу по бэкапам серверов =(
Завтра же ставлю админу задачу по бэкапам серверов =(
Сегодня же ставлю себе задачу «выполнить задачу „Настроить бекап сервера“ » :)
Коллега, не работайте хотя бы в воскресенье! =)
У Вас уже есть какие-нибудь идеи как организовать регулярные бэкапы?
Все зависит от нагруженности и частоты обновления информации на сервере. Коллеги выше омолвились о Google Storage и Amazone S3 как о месте хранения. Сейчас смотрю как организован доступ к ним. А из приложений пока ничего дельного не нашел — авторы статеи в интернете только и делают, что архивируют всю структуру и отправляют архив во внешнее хранилище. По мне, так это пустая трата времени и ресурсов. Коллеги, как вы бекапите систему?
Весьма неплохая статья на тему умных бэкапов «наружу» — habrahabr.ru/blogs/sysadm/111555/
При записи в какой-либо файл s3fs считывает целиком предыдущую версию файла на компьютер, в локальной копии происходят все модификации, и после закрытия файла он целиком заливается обратно на S3. Это означает, что даже дозапись нескольких байт в архивный файл размером 500 мегабайт приведёт к передаче гигабайта по сети.
Как-то мутно всё. Не проще сервер в другом ДЦ арендовать?
Если bacula director и storage на другой машине внутри аккаунта (если речь о Скалакси), то этот гигабайт незаметен (благо, внутри аккаунта сеть 100Мбит/1Гбит).
Ещё можно лить уже сделанные бакулой бэкапы на s3 отдельно, а не через s3fs.
Ещё можно лить уже сделанные бакулой бэкапы на s3 отдельно, а не через s3fs.
В бекапе внутри ДЦ смысла нет – что если сервер бекапа заденет вместе с основным?
Bacula director заливает файлы на s3 (схема работы по ссылке), просто обычно его запускают на отдельной машине.
Прошу прощения, невнимательно прочитал Ваш предыдущий комментарий. Получается, схема следующая: поднимаем внутри ДЦ еще один сервер, вешаем на него bacula, который бекапит систему, после чего готовый бекап отправляем на s3. Правильно? И еще, насколько целесообразно ставить bacula storage на основной сервер? Насколько возрастет нагрузка?
Ничего мутного. Это единственный вариант сделать append файлу на S3. Если вы скажете бакуле закрывать том сразу после бэкапа, то append никогда не понадобится. Хотя чего вы его так боитесь, я не понимаю. Тем более в скалакси, где трафик бесплатный.
Мыши кололись, но с кайфом продолжали жрать кактус. Сборище мазахистов=)
На баннере Scalaxy разрывает :) img12.imageshack.us/img12/1820/scalaxy.png
Интересовался у саппорта положением дел:
Основные проблемы уже решены, подняты практически все задетые машины. Сейчас наблюдаются проблемы с машинами, которые запускали до 16 часов — в ближайшее время поднимем и их.
любая система рано или поздно даст сбой. даже те же google apps или s3, ничто не вечно. уж сколько раз твердили, если у вас mission critical tasks — полагайтесь только на себя. по крайней мере вы всегда сможете развернуть бекапы сразу а не «в порядке очереди».
хороший сервис. но дорого. надо еще дешевле чтобы на «линейке» минимум был.
Сервер так и весит. Грустно, у нас уже утро а он людям нужен…
Какой сервер? Аккаунт, ID? Поднято практически всё уже. Можно номер тикета, если есть.
Моё облако до сих пор лежит. Тикет 3470. Сколько ждать-то?
Похоже перманентный трындец у скалакси продолжается. Вчера вечером выбило сервер, он не запускается. Другой не выключается.
Продолжается, факт. Еще два раза была самопроизвольная остановка сервера. Сейчас сижу, курю бамбук, жду когда поднимут. Медленно, но уверенно начинаю жалеть о переезде. Нет в жизни счастья
Опять двадцать пять, уже час простоя. Это стало уже доброй традицией.
Sign up to leave a comment.
Авария в Оверсан Скалакси