Комментарии 235
У Clodo были проблемы начиная с 10, они на сколько я помню у оверсана живут, в итоге умерло несколько серверов, пришлось с бэкапов поднимать.
+5
А то что я два часа локти кусал в ожидании ответа, который просто являлся дубляжем почтовой рассылки?
0
Ну Вам еще повезло, мне о тот что с сервером что-то не так сообщила система мониторинга, а не clodo или оверсан.
+1
Мне ответили спустя 5 минут после создания тикета, было это примерно в 23 часа…
+1
Так ведь не дубляж. Скорее признание, что в первом письме соврали:
Максимально быстро данная проблема была устранена нашими инженерами...
Как проблема будет устранена, отпишем...
0
С 10? Это Вы о какой проблеме?
0
Неожиданно обсыпались диски виртуальных машин.
Потом не мог даже войти в панель управления clodo, так как сообщалось что меня вообще не существует.
Потом не мог даже войти в панель управления clodo, так как сообщалось что меня вообще не существует.
0
Вчера?
0
Thu, 10 Feb 2011 11:27:02 +0300 (10.02.2011 18:27:02)
Обнаружено раньше, это первый ответ вашей службы поддержки.
Обнаружено раньше, это первый ответ вашей службы поддержки.
0
У нас не было аварий 10 февраля. Видимо это был частный случай именно с вашей виртуалкой. Можно номер тикета в личку, посмотрю что это было.
0
Не знаю что за частный случай но у меня есть ответ вашей службы поддержки.
Тикет в личке
Тикет в личке
+1
Мда… Надо сапорт наказать за такой ответ.
0
а руководству отрывать яйца;)
-33
Просто у меня 2 аккаунта у Вас, и когда пытался зайти оба говорили что меня нет, правда это длилось всего час, но это же о чем-то да говорит?
+1
Панель может быть недоступна для входа, но это не отражается на работе запущенных виртуальных машин.
+1
ну да :) не отражалось :) машины были в коме
+2
Просто я так и не получил внятного ответа, что у Вас там случилось.
+1
Перечитал тикет, у Вас файловая система посыпалась. Учитывая что в статусах системы в это время не было даже падений нод, могу предположить что проблема была внутри виртуального сервера. Если интересно я в понедельник могу у админов разузнать подробности Вашего случая. Кстати ответили Вам оперативно :)
+1
Ситуация сложная — с одной стороны я должен злорадствовать, с другой стороны любая, самая многократно резервированная система может-таки сказать «йок», так что в этой ситуации могу только посочувствовать им.
+12
Может сказать йок, но в данном случае все это можно избежать — второй массив, репликация, etc.
-4
Эх, теоретики… :-/
+21
При чем тут теоретики? Вы когда-нибудь строили разнесенный ЦОД, с обеспечением отказоустойчивости даже при техногенных катастрофах?
-5
Все таки это сотрудник netappa, так что может быть и строили, строят и будут строить.
+5
Не нужно сравнивать некомпетентность и катастрофы.
-5
Строили, да.
Именно потому никто никогда не говорит и не обещает 100% надежности, а всегда только «много девяток», что «случаи бывают разные», и опыт показывает, что абсолютная надежность, к сожалению, бывает только в теории.
Именно потому никто никогда не говорит и не обещает 100% надежности, а всегда только «много девяток», что «случаи бывают разные», и опыт показывает, что абсолютная надежность, к сожалению, бывает только в теории.
+2
Я же написал, «самая многократно резервированная система». Например, на одном сервере побилась память, он записал ахинею на диск (в район метаданных LVM) и реплицировал их. Кусать зубы? Уже бесполезно.
Ровно так же может навернуться нужное количество дисков в двух рейдах именно в том комплекте, который вынесет все рейды. Не может быть? Не может. Но случается.
А ещё может козлить корзина, я такое один раз видел: она сналача отвалила половину дисков, а потом отвалила другой набор дисков, подключив старые. Разумеется, все метаданные рейда в хлам (и в этом случае никакое количество дисков в рейде не спасёт). Если это произойдёт на двух системах сразу (допустим, битая серия корзин), то опять же, кусать зубы и терпеть.
Ровно так же может навернуться нужное количество дисков в двух рейдах именно в том комплекте, который вынесет все рейды. Не может быть? Не может. Но случается.
А ещё может козлить корзина, я такое один раз видел: она сналача отвалила половину дисков, а потом отвалила другой набор дисков, подключив старые. Разумеется, все метаданные рейда в хлам (и в этом случае никакое количество дисков в рейде не спасёт). Если это произойдёт на двух системах сразу (допустим, битая серия корзин), то опять же, кусать зубы и терпеть.
+6
Кусать зубы [x]
+6
Думаю сегодня появилось много людей которые, уже делают бекапы.
+2
ECC разве не защити от ошибок памяти?
+1
НЛО прилетело и опубликовало эту надпись здесь
Я думаю, вам всем пора переходить в Макхост ;)
-44
Не знаю как у вас, но моя машина ещё лежит…
+3
Ребята накупили дорогих игрушек (серваков и массивов новомодных) на гос. деньги, а теперь не знают что с ними делать =)
-45
Блеать, видимо не зря была мысль сделать бекап в пятницу… Не сделал.
У меня пока тоже не загружается :( ппц…
У меня пока тоже не загружается :( ппц…
0
Не знаю как у вас, но моя машина ещё лежит…
+1
Компания Оверсан отключила оборудование «Оверсан-Скалакси» за неуплату.
+14
Никогда не доверял внешним дисковым массивам. Пусть лучше будет 10 не самых надёжных, но независимых, серверов по 5 клиентов на каждом, чем супер-пупер надёжный массив, который завалит всех клиентов разом при поломке.
+3
Дело не в массивах, на западе их используют очень широко и работают без сбоев. А в некомпетентности сотрудников. Особенно в таких компаниях как Оверсан и Скалакси, где состав сотрудников, в том числе руководства, меняется по 3 раза в год.
-32
НЛО прилетело и опубликовало эту надпись здесь
у них просто пока мало клиентов :)
-18
А как Clodo со Скалакси связана?
+2
это одно и тоже, но 2 разных брэнда, как Оверсан и Оверсан-Скалакси.
-23
Ну макхост как обычно… ненавидит всех кто в Оверсане :)
+1
вы выдумщик и фокусник, не зря в шляпе ходите=)
-20
макхост, вы таки верните мне 30 000 р. и перестаньте мне рассылать свою долбаную рекламу!
+15
А меня просто перестаньте спамить! Я даже никогда не был вашим клиентом!
+6
Я просто удивляюсь как вы умудряетесь так спамить на хабре с ограничением в один коммент в пять минут.
+2
А уточните все-таки, пожалуйста, как Clodo связан с Оверсан Скалакси? Хочется получить информацию, так сказать, из первых рук, без домыслов и прочей чуши :)
Интересуюсь как ваш клиент.
Интересуюсь как ваш клиент.
0
Мы арендуем в Оверсане стойки и интернет-канал.
0
Спасибо, теперь буду знать, что надо бояться новостей, подобных этой.
Кстати, от вас не получал никакого уведомления, что был сбой и нужно ребутнуть виртуалку. Если бы не зашел посмотреть на срач в комментах к этой новости и случайно бы не выяснил, что это и меня касается, то и неизвестно сколько бы мои ресурсы были недоступны.
Кстати, от вас не получал никакого уведомления, что был сбой и нужно ребутнуть виртуалку. Если бы не зашел посмотреть на срач в комментах к этой новости и случайно бы не выяснил, что это и меня касается, то и неизвестно сколько бы мои ресурсы были недоступны.
0
1)По трасерту они хостятся в датацентре оверсана.
tracert clodo.ru
Трассировка маршрута к clodo.ru [188.127.236.4]
с максимальным числом прыжков 30:
8 54 ms 54 ms 53 ms 188.127.254.2
9 53 ms 53 ms 53 ms Mr-O-RTC1-rsw-2.oversun.ru [188.127.254.1]
10 55 ms 55 ms 54 ms Mr-O-RTC4-rsw-1.oversun.ru [94.198.48.158]
11 54 ms 54 ms 54 ms Mr-O-RTC2-rsw-1.oversun.ru [94.198.48.90]
12 52 ms 52 ms 52 ms clodo.ru [188.127.236.4]
2)Так как облако у них вроде как не падало, то наверно у них свое облако.
3)Судя по сайту юрлицо у них тоже свое и зарегано в питере.
Отсюда можно сделать любой вывод, но думаю не стоит, а то хабра превратится в британскую газету sun.
tracert clodo.ru
Трассировка маршрута к clodo.ru [188.127.236.4]
с максимальным числом прыжков 30:
8 54 ms 54 ms 53 ms 188.127.254.2
9 53 ms 53 ms 53 ms Mr-O-RTC1-rsw-2.oversun.ru [188.127.254.1]
10 55 ms 55 ms 54 ms Mr-O-RTC4-rsw-1.oversun.ru [94.198.48.158]
11 54 ms 54 ms 54 ms Mr-O-RTC2-rsw-1.oversun.ru [94.198.48.90]
12 52 ms 52 ms 52 ms clodo.ru [188.127.236.4]
2)Так как облако у них вроде как не падало, то наверно у них свое облако.
3)Судя по сайту юрлицо у них тоже свое и зарегано в питере.
Отсюда можно сделать любой вывод, но думаю не стоит, а то хабра превратится в британскую газету sun.
0
Там он вам и сказал ;)
-4
Как поздно я очнулся и добрался до топика…
Тем не менее.
Меня зовут Нат, я сотрудник Оверсана.
Ребята из Клодо действительно только арендуют у нас стойки и интернет-канал. У них свой сервис и продукт, у нас — свой (Скалакси).
Соответственно и аварии у одного облачного провайдера не касаются другого. Это совершенно разные кластеры оборудования.
Тем не менее.
Меня зовут Нат, я сотрудник Оверсана.
Ребята из Клодо действительно только арендуют у нас стойки и интернет-канал. У них свой сервис и продукт, у нас — свой (Скалакси).
Соответственно и аварии у одного облачного провайдера не касаются другого. Это совершенно разные кластеры оборудования.
+3
А Вы когда почините? сервер в состоянии вечного «выключается»
0
На help@scalaxy.ru такие вопросы лучше задавать, или через панель. Желательно ещё указывать аккаунт и какой именно сервер не поднимается.
0
написал, ответ «восстановление будет протекать долго» меня огорчает.
0
Только вчера выкупил там площадку, хорошо что проект не успел перенести…
0
/цитата/
вот это саппорт.
Одмин негодуэ!
/цитата/
буэ на таких саппотеров!
За сегодня-вчера только на хабре прочитал 2 поста на тему «хорошей» поддержки. Это Россия, детка. :"(
вот это саппорт.
Одмин негодуэ!
/цитата/
буэ на таких саппотеров!
За сегодня-вчера только на хабре прочитал 2 поста на тему «хорошей» поддержки. Это Россия, детка. :"(
-3
НЛО прилетело и опубликовало эту надпись здесь
Упало вчера вечером, лежит до сих пор. Когда починят — не знают сами. На текущий момент это около 16 часов «облачного» простоя.
Замечу, что за последние два с небольшим месяца было шесть инцидентов с дисками, оборудованием и кривым ПО в Оверсане. Все шесть инцидентов приводили к незапланированному отключению серверов и простою. С другой стороны техподдержка круглосуточная и вежливая.
Кагбы ничего личного, но куды бечь?
Замечу, что за последние два с небольшим месяца было шесть инцидентов с дисками, оборудованием и кривым ПО в Оверсане. Все шесть инцидентов приводили к незапланированному отключению серверов и простою. С другой стороны техподдержка круглосуточная и вежливая.
Кагбы ничего личного, но куды бечь?
+2
НЛО прилетело и опубликовало эту надпись здесь
Да хотя бы сюда linode.com. Реально и без шуток, если хоть раз попробуете там разместить свои проекты никогда уже не вернетесь ни в какие говнооблака в россии.
+3
Реально интересно. Если бы трафик анлим, было бы вообще идеально.
0
Сколько людей столько и мнений, пол месяца назад с радостью съехали с Linode.
+2
Пинг жуткий. Мне не понравилось.
0
Не проще за такие деньги сразу взять выделенный сервер? Например, тут: www.hetzner.de/en/hosting/produktmatrix/rootserver-produktmatrix-eq
0
У хетзнера стоит сервер начального уровня 40$(там цены в евро), он AMD Athlon 64 3700+(одноядерный) и гиг озу. У линоды 40$ стоит чуть меньше половины одного ядра Xeon L5420(по производительности эти пол ядра будут скорее всего выше чем атлон хетзнеровский), и также гиг ОЗУ.
По месту на винте у линоды гораздо меньше конечно 32 гига против 160 гигов. Но зато есть всякие плюшки облачности. Типа апгрейда за 40 минут включая копирование данных.
По месту на винте у линоды гораздо меньше конечно 32 гига против 160 гигов. Но зато есть всякие плюшки облачности. Типа апгрейда за 40 минут включая копирование данных.
0
За 49 евро возьмите сервер с i7- 4 ядра + 8 гб оперативы
0
Видел, сервера конечно мощные, только там еще 150 евро для установки платить. Суммарно 270 $ за первый месяц и 65 $ потом. Дороговато выходит сервера добавлять. Да и железо не серверное, тот же софтовый рейд смущает.
0
270 долларов это примерно 8 тысяч, а потом примерно 2000 в месяц.
Железо там отличное, я такое юзаю в серверах, ни одной сломанной матери, ни одного сломанного проца или памяти, летят только винты. Сервера использую в промышленном масштабе.
Чем он вас смущает, работает и не жужжит.
Железо там отличное, я такое юзаю в серверах, ни одной сломанной матери, ни одного сломанного проца или памяти, летят только винты. Сервера использую в промышленном масштабе.
Чем он вас смущает, работает и не жужжит.
0
Летящие винты тоже проблема, у линоды летящий винт можно заметить только по небольшому простою.
А насчет чем смущает, да стремно немного использовать память без ECC, ну и последнее время что-то больше отрицательных отзывов стало о нем.
Насчет денег, впринципе конечно немного, но нам пока удобнее с linode работать, так как можно плавно мощность наращивать и над горизонтальной масштабируемостью работать.
А насчет чем смущает, да стремно немного использовать память без ECC, ну и последнее время что-то больше отрицательных отзывов стало о нем.
Насчет денег, впринципе конечно немного, но нам пока удобнее с linode работать, так как можно плавно мощность наращивать и над горизонтальной масштабируемостью работать.
0
Цены настолько ниже чем в России, что за тебе деньги я могу себе позволить 5 серверов в германии по сравнению с таким же сервером в России.
Для резервирования просто беру два сервера, и все равно выходит дешевле.
Для резервирования просто беру два сервера, и все равно выходит дешевле.
0
Если проект не только-для-роисси, то Media Temple.
0
Мне о аварии не сообщили. И судя по статистике ночью всё было хорошо.
В 12:19 по МСК начались проблемы: сервер ушел в масштабирование и не вернулся. Сайты были при этом недоступны.
Открыл тикет в 12:46 — ответил за 3 минуты. После ответа сервер начал отвечать, но в панельке он до сих пор якобы маштабируется. Саппорт сказал, что включение/выключение сервера сейчас недоступно т.к. ведутся работы по утстранению вчерашней аварии.
О аварии узнал с хабра после открытия тикета.
В 12:19 по МСК начались проблемы: сервер ушел в масштабирование и не вернулся. Сайты были при этом недоступны.
Открыл тикет в 12:46 — ответил за 3 минуты. После ответа сервер начал отвечать, но в панельке он до сих пор якобы маштабируется. Саппорт сказал, что включение/выключение сервера сейчас недоступно т.к. ведутся работы по утстранению вчерашней аварии.
О аварии узнал с хабра после открытия тикета.
0
И опять сервер не отвечает… Печально.
0
>> Саппорт сказал, что включение/выключение сервера сейчас недоступно
>> т.к. ведутся работы по утстранению вчерашней аварии.
Мне тоже самое написали, причем без указания, когда все починят. Вот это более всего напрягает.
>> т.к. ведутся работы по утстранению вчерашней аварии.
Мне тоже самое написали, причем без указания, когда все починят. Вот это более всего напрягает.
0
Мне отписали, что все классно и можно запускать сервера (сообщение от сегодняшнего числа, 0:36), но до сих пор не могут запуститься сервера. Грустно.
0
Ну опять… щас руководство начнет звонить…
0
Ладно хоть выходные, что будет в понедельник страшно представить, надеюсь пофиксят… ох как надеюсь…
0
У меня машина висит в стадии «запускается» уже несколько часов.
Отвечают:
Отвечают:
К сожалению, операция включения/выключения сервера в данный момент невозможна. Это связанно с работами, проводимыми в рамках устранения последствий вчерашней аварии.
В ближайшее время работоспособность восстановится.
0
Пришлите server id в личку.
0
И что это даст?
0
Прислал
0
Не понимаю, зачем писать такое? Ну напишите в личку «Пришлите server id в личку.» Нет. Надо в коментах, чтобы все видели о заботе о клиентах. А то, что сейчас не до Хабра должно быть всем, кто может как-то помочь, так это пофиг. Все заботливые и готовы «взять под личный контроль» и при том написать об этом в газетах в коментах.
-3
Лучше ещё один канал для общения, чем ни одного.
0
Радиомолчание — это выход? Вряд ли.
+3
Я не про молчание, а про показушную «заботу» о клиентах. Просьбу выслать ID сервера можно было разослать всем в личку, а не писать в комент. И бодрый отчет о решении проблем я так понял немного рановато написали.
0
Так и есть. Написал, что запустил сервер. Захожу — зелененький )) Но радость длилась не долго, т.к. fs-ы вообще не монтируются ((
0
Кстати, у меyя тоже сервер зелененьким загорелся после того как я отправил ID. Но не отвечал… Ну, я решил ребутнуть :) Теперь сервер не в состоянии «масштабируется», а в состоянии «перезагружается».
Нужно решение проблемы, а не перекраска сервера из желтого в зеленый.
Обиднее всего, что авария меня не коснулась, а устранение последствий аварии привело к неработоспособности серверов.
Нужно решение проблемы, а не перекраска сервера из желтого в зеленый.
Обиднее всего, что авария меня не коснулась, а устранение последствий аварии привело к неработоспособности серверов.
0
Как бы хваленые десятые рейды на sas дисках, с многократным резервированием не оказались помойкой на sata дисках. Которая накрылась. Вот это будет номер.
+2
Надеюсь этого не произойдет т.к. вчера слил бэкап баз, а вот свежего бэкапа статики (около 9 гигов) у меня нет…
0
Я базы кроном тоже бакуплю каждый день на гмаил-сторадж, а вот статику давненько отправил на AWS, теперь нужно придумать, как ее от туда забрать. Но все таки тешат меня надежды, что все обойдется легким испугом.
0
что такое aws?
0
Достучался таки до своего сервера. Оказывается он работал, но т.к. включение/выключение заблокировали он замер на двух слотах — ресурсов не хватало и достучаться до него было проблематично.
Когда подключился LA был около 65. Пошаманил — нагрузку снизил. Даже сайты начали грузиться :)
Все данные на месте и целые (вроде).
Когда подключился LA был около 65. Пошаманил — нагрузку снизил. Даже сайты начали грузиться :)
Все данные на месте и целые (вроде).
0
У меня то же самое
0
Кстати при общении с поддержкой скалакси в одном из писем сказали что в понедельник рассчитают и зачислят компенсацию за неудобства.
+1
Приветствую!
У нас действительно произошла авария с несколькими нодами данных, в результате чего произошло перемонтирование дисков некоторых клиентских виртуальных машин в режим read-only. Хранилище было восстановлено в течении 15 минут, но потребовались работы по поочередной перезагрузке вычислительных узлов облака, поэтому восстановление работоспособности заняло столь длительное время.
Мы с коллегами изучили эту авария и поняли, что нужно сделать, что бы навсегда избежать таких ситуаций в дальнейшем. Мы уже исправлятем эти недочеты и сделаем нашу систему хранения поистинне железобетонной.
Я от себя лично и от лица компании извиняюсь за сей неприятный момент. Всем пострадавшим будет начислена компенсация. Кроме того, мы решили поделиться с вами промокодом fail2win дающим 500 рублей, что бы вы помогли укрепить наши стены, а может и подсказали куда строиться дальше.
У нас действительно произошла авария с несколькими нодами данных, в результате чего произошло перемонтирование дисков некоторых клиентских виртуальных машин в режим read-only. Хранилище было восстановлено в течении 15 минут, но потребовались работы по поочередной перезагрузке вычислительных узлов облака, поэтому восстановление работоспособности заняло столь длительное время.
Мы с коллегами изучили эту авария и поняли, что нужно сделать, что бы навсегда избежать таких ситуаций в дальнейшем. Мы уже исправлятем эти недочеты и сделаем нашу систему хранения поистинне железобетонной.
Я от себя лично и от лица компании извиняюсь за сей неприятный момент. Всем пострадавшим будет начислена компенсация. Кроме того, мы решили поделиться с вами промокодом fail2win дающим 500 рублей, что бы вы помогли укрепить наши стены, а может и подсказали куда строиться дальше.
+17
не нашел куда вводить промокод
0
Компенсация в данном случае как мертвому припарки, серверов та НЕТ!
0
Скиньте в личку ids серверов.
0
Скинул.
Сервак желтым горит, и не туды и не сюды )
Сервак желтым горит, и не туды и не сюды )
0
Во во… та же тема.
+1
Оп-па… зря я радовался, что беда прошла мимо… И у меня такая же фигня началась в 14:55 — вначале сервак отключился, теперь висит в состоянии запускается
+2
присоединяюсь
0
И ещё один… Рано сообщили о победе, видимо.
0
Тоже скинул.
0
У меня оба имеющихся сервера сейчас выключены. Можно ли их включать я не знаю — боюсь что опять повиснут при включении. Профиль info@omgovich.ru
+1
говорящая у вас фамилия…
-4
>>Всем пострадавшим будет начислена компенсация.
Ну и где компенсация?
Ну и где компенсация?
0
Вы пишете в прошедшем времени, будто проблема уже решена и все сервера поднялись. А на самом деле, когда устраните последствия?
0
НЛО прилетело и опубликовало эту надпись здесь
Нда, наши облака самые тяжелые облака в мире.
+2
что-то хостинг за хостингом ложится… лезут по незнанию, создавая проблемы клиентам…
0
Вот интересно. Сколько раз уже обсуждалось, что не нужно размещать важные(да и не важные) проекты в России, кроме проблем это никаких плюсов не имеет. Все технологии устаревшие, специалисты некомпетентные, милиция и государство коррумпированные и тп и тд. И все равно находятся идиоты, которые размещают проекты в Российских дата-центрах, а потом рвут волосы на жопе. «Русский человек любит авось, небось да как-нибудь».
Кстати, взято из новостей на сайте Оверсан:
Разработчики облака, решающего стратегические задачи российского государства и бизнеса, — группа компаний Оверсан и ОАО “Российские космические системы”( это те, которые друг друга мудаками называют habrahabr.ru/blogs/gps/110820/ ).
Не знаю кем надо быть после этого, чтобы размещать там свои проекты=)
ps. у них даже сайт кривой www.oversun.ru/slides/#section4, хотя стоит 10млн рублей=))))
Кстати, взято из новостей на сайте Оверсан:
Разработчики облака, решающего стратегические задачи российского государства и бизнеса, — группа компаний Оверсан и ОАО “Российские космические системы”( это те, которые друг друга мудаками называют habrahabr.ru/blogs/gps/110820/ ).
Не знаю кем надо быть после этого, чтобы размещать там свои проекты=)
ps. у них даже сайт кривой www.oversun.ru/slides/#section4, хотя стоит 10млн рублей=))))
-26
Заработало
0
Добрый день, коллеги.
Я отвечу на несколько особенно популярных в топике вопросов.
Проблемы, которые возникают у некоторых пользователей при старте серверов сейчас (залипают в желтый, стартуют по полтора часа) — есть следствие ночных проблем, да. Я не буду объяснять всю техническую суть этой проблемы, но она есть, все нормализуется сегодня в течение может еще часа, двух, может и немного дольше.
Тем, кому интересно точное техническое описание проблемы — вполне возможно, что мы опубликуем его чуть позже. Возможно, оно будет интересно вам, да и нашим коллегам.
Хостинг за хостингом ложится — да, заметили вы хорошо. Ложился и раньше, ложится сейчас и будет ложиться в будущем, потому, что хостинг — некая сложная техническая платформа (особенно «облака»), любая сложная техническая платформа падает, как подметил amarao. Хостинг ложится не только в РФ, это уже миф. Вспомните, как ложились дата-центры AWS. Наша с вами задача — создавать и эксплуатировать такие платформы, которые падают не слишком часто (дают адекватный аптайм в 99,999..%) и разрабатывать отказоустойчивые приложения для управления и эксплуатации таких платформ.
Мы понимаем, что никакие компенсации и промо-акции не компенсируют в полном объеме простой ресурсов, упущенную прибыль и так далее, однако сейчас самое лучшее и важное, что можем сделать мы — сконцентрироваться на наискорейшем решении всех проблем их последствий. Но и отмалчиваться мы, естественно, не будем.
Искренне от себя и от компании прошу прощения за это падение. Спасибо за понимание.
Я отвечу на несколько особенно популярных в топике вопросов.
Проблемы, которые возникают у некоторых пользователей при старте серверов сейчас (залипают в желтый, стартуют по полтора часа) — есть следствие ночных проблем, да. Я не буду объяснять всю техническую суть этой проблемы, но она есть, все нормализуется сегодня в течение может еще часа, двух, может и немного дольше.
Тем, кому интересно точное техническое описание проблемы — вполне возможно, что мы опубликуем его чуть позже. Возможно, оно будет интересно вам, да и нашим коллегам.
Хостинг за хостингом ложится — да, заметили вы хорошо. Ложился и раньше, ложится сейчас и будет ложиться в будущем, потому, что хостинг — некая сложная техническая платформа (особенно «облака»), любая сложная техническая платформа падает, как подметил amarao. Хостинг ложится не только в РФ, это уже миф. Вспомните, как ложились дата-центры AWS. Наша с вами задача — создавать и эксплуатировать такие платформы, которые падают не слишком часто (дают адекватный аптайм в 99,999..%) и разрабатывать отказоустойчивые приложения для управления и эксплуатации таких платформ.
Мы понимаем, что никакие компенсации и промо-акции не компенсируют в полном объеме простой ресурсов, упущенную прибыль и так далее, однако сейчас самое лучшее и важное, что можем сделать мы — сконцентрироваться на наискорейшем решении всех проблем их последствий. Но и отмалчиваться мы, естественно, не будем.
Искренне от себя и от компании прошу прощения за это падение. Спасибо за понимание.
+7
Красивое оправдание, но оно не учитывает то, что многим срать почему ваше-чудо облако не работает. И почему вы морочите людям мозги тоже не важно. «хостинг — некая сложная техническая платформа (особенно «облака»)» — это просто отмазка. Если компания гнилая, коей является Оверсан, то никакие технологии и плюшки не помогут. Нат, я бы на твоем месте делал ноги из Оверсана, как сделали все уважающие себя сотрудники.
-12
На текущее состояние мои сервера работаю корректно. Проверьте и ваши :)
0
Такая же беда.
Завтра же ставлю админу задачу по бэкапам серверов =(
Завтра же ставлю админу задачу по бэкапам серверов =(
0
Сегодня же ставлю себе задачу «выполнить задачу „Настроить бекап сервера“ » :)
+2
Коллега, не работайте хотя бы в воскресенье! =)
0
У Вас уже есть какие-нибудь идеи как организовать регулярные бэкапы?
0
Все зависит от нагруженности и частоты обновления информации на сервере. Коллеги выше омолвились о Google Storage и Amazone S3 как о месте хранения. Сейчас смотрю как организован доступ к ним. А из приложений пока ничего дельного не нашел — авторы статеи в интернете только и делают, что архивируют всю структуру и отправляют архив во внешнее хранилище. По мне, так это пустая трата времени и ресурсов. Коллеги, как вы бекапите систему?
0
Весьма неплохая статья на тему умных бэкапов «наружу» — habrahabr.ru/blogs/sysadm/111555/
+1
При записи в какой-либо файл s3fs считывает целиком предыдущую версию файла на компьютер, в локальной копии происходят все модификации, и после закрытия файла он целиком заливается обратно на S3. Это означает, что даже дозапись нескольких байт в архивный файл размером 500 мегабайт приведёт к передаче гигабайта по сети.
Как-то мутно всё. Не проще сервер в другом ДЦ арендовать?
0
Если bacula director и storage на другой машине внутри аккаунта (если речь о Скалакси), то этот гигабайт незаметен (благо, внутри аккаунта сеть 100Мбит/1Гбит).
Ещё можно лить уже сделанные бакулой бэкапы на s3 отдельно, а не через s3fs.
Ещё можно лить уже сделанные бакулой бэкапы на s3 отдельно, а не через s3fs.
0
В бекапе внутри ДЦ смысла нет – что если сервер бекапа заденет вместе с основным?
0
Bacula director заливает файлы на s3 (схема работы по ссылке), просто обычно его запускают на отдельной машине.
0
Прошу прощения, невнимательно прочитал Ваш предыдущий комментарий. Получается, схема следующая: поднимаем внутри ДЦ еще один сервер, вешаем на него bacula, который бекапит систему, после чего готовый бекап отправляем на s3. Правильно? И еще, насколько целесообразно ставить bacula storage на основной сервер? Насколько возрастет нагрузка?
0
Ничего мутного. Это единственный вариант сделать append файлу на S3. Если вы скажете бакуле закрывать том сразу после бэкапа, то append никогда не понадобится. Хотя чего вы его так боитесь, я не понимаю. Тем более в скалакси, где трафик бесплатный.
0
Мыши кололись, но с кайфом продолжали жрать кактус. Сборище мазахистов=)
-5
На баннере Scalaxy разрывает :) img12.imageshack.us/img12/1820/scalaxy.png
+10
Интересовался у саппорта положением дел:
Основные проблемы уже решены, подняты практически все задетые машины. Сейчас наблюдаются проблемы с машинами, которые запускали до 16 часов — в ближайшее время поднимем и их.
0
любая система рано или поздно даст сбой. даже те же google apps или s3, ничто не вечно. уж сколько раз твердили, если у вас mission critical tasks — полагайтесь только на себя. по крайней мере вы всегда сможете развернуть бекапы сразу а не «в порядке очереди».
0
хороший сервис. но дорого. надо еще дешевле чтобы на «линейке» минимум был.
0
Сервер так и весит. Грустно, у нас уже утро а он людям нужен…
0
Какой сервер? Аккаунт, ID? Поднято практически всё уже. Можно номер тикета, если есть.
0
Моё облако до сих пор лежит. Тикет 3470. Сколько ждать-то?
0
Похоже перманентный трындец у скалакси продолжается. Вчера вечером выбило сервер, он не запускается. Другой не выключается.
0
Продолжается, факт. Еще два раза была самопроизвольная остановка сервера. Сейчас сижу, курю бамбук, жду когда поднимут. Медленно, но уверенно начинаю жалеть о переезде. Нет в жизни счастья
+1
Опять двадцать пять, уже час простоя. Это стало уже доброй традицией.
+1
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Авария в Оверсан Скалакси