Pull to refresh

Comments 235

У Clodo были проблемы начиная с 10, они на сколько я помню у оверсана живут, в итоге умерло несколько серверов, пришлось с бэкапов поднимать.
А то что я два часа локти кусал в ожидании ответа, который просто являлся дубляжем почтовой рассылки?
Ну Вам еще повезло, мне о тот что с сервером что-то не так сообщила система мониторинга, а не clodo или оверсан.
Мне ответили спустя 5 минут после создания тикета, было это примерно в 23 часа…
Так ведь не дубляж. Скорее признание, что в первом письме соврали:
Максимально быстро данная проблема была устранена нашими инженерами...
Как проблема будет устранена, отпишем...
С 10? Это Вы о какой проблеме?
Неожиданно обсыпались диски виртуальных машин.
Потом не мог даже войти в панель управления clodo, так как сообщалось что меня вообще не существует.
Thu, 10 Feb 2011 11:27:02 +0300 (10.02.2011 18:27:02)
Обнаружено раньше, это первый ответ вашей службы поддержки.
У нас не было аварий 10 февраля. Видимо это был частный случай именно с вашей виртуалкой. Можно номер тикета в личку, посмотрю что это было.
Не знаю что за частный случай но у меня есть ответ вашей службы поддержки.
Тикет в личке
Мда… Надо сапорт наказать за такой ответ.
а руководству отрывать яйца;)
Сказал злобный макхост, запомнившийся своим переездом с оверсана.
это не макхост, это тролль с похожим ником
И вы сюда со своим говнохостом пришли
Чья бы корова молчала — кстати, не засудили там вас по те самые яйца? Смотрю, что хорошо отделались.
И вы сюда со своим говнохостом пришли
Просто у меня 2 аккаунта у Вас, и когда пытался зайти оба говорили что меня нет, правда это длилось всего час, но это же о чем-то да говорит?
Панель может быть недоступна для входа, но это не отражается на работе запущенных виртуальных машин.
ну да :) не отражалось :) машины были в коме
Просто я так и не получил внятного ответа, что у Вас там случилось.
Перечитал тикет, у Вас файловая система посыпалась. Учитывая что в статусах системы в это время не было даже падений нод, могу предположить что проблема была внутри виртуального сервера. Если интересно я в понедельник могу у админов разузнать подробности Вашего случая. Кстати ответили Вам оперативно :)
Я не спорю что ответили оперативно.
И 11 уже был доступ к бекапам.
Просто хочется узнать причину, информация то не лишняя будет.
Напишу Вам в понедельник после того как распрошу админов.
Ситуация сложная — с одной стороны я должен злорадствовать, с другой стороны любая, самая многократно резервированная система может-таки сказать «йок», так что в этой ситуации могу только посочувствовать им.
Может сказать йок, но в данном случае все это можно избежать — второй массив, репликация, etc.
Эх, теоретики… :-/
При чем тут теоретики? Вы когда-нибудь строили разнесенный ЦОД, с обеспечением отказоустойчивости даже при техногенных катастрофах?
Все таки это сотрудник netappa, так что может быть и строили, строят и будут строить.
8) локальная слава…
Не нужно сравнивать некомпетентность и катастрофы.
Я и не сравниваю. Внимательней читайте то, на что отвечаете.
Строили, да.
Именно потому никто никогда не говорит и не обещает 100% надежности, а всегда только «много девяток», что «случаи бывают разные», и опыт показывает, что абсолютная надежность, к сожалению, бывает только в теории.
Старший лейтенант запаса ;D
Я же написал, «самая многократно резервированная система». Например, на одном сервере побилась память, он записал ахинею на диск (в район метаданных LVM) и реплицировал их. Кусать зубы? Уже бесполезно.

Ровно так же может навернуться нужное количество дисков в двух рейдах именно в том комплекте, который вынесет все рейды. Не может быть? Не может. Но случается.

А ещё может козлить корзина, я такое один раз видел: она сналача отвалила половину дисков, а потом отвалила другой набор дисков, подключив старые. Разумеется, все метаданные рейда в хлам (и в этом случае никакое количество дисков в рейде не спасёт). Если это произойдёт на двух системах сразу (допустим, битая серия корзин), то опять же, кусать зубы и терпеть.
Думаю сегодня появилось много людей которые, уже делают бекапы.
ECC разве не защити от ошибок памяти?
На сколько я знаю ECC может корректировать незначительные ошибки (1 бит) и распознавать средние. То есть она полностью ничего не гарантирует, а только в некоторых случаях указывает на ошибку (которую софт еще должен корректно обработать). К сожалению.
UFO landed and left these words here
А я то думаю, чего я его запустить не могу…
Я думаю, вам всем пора переходить в Макхост ;)
UFO landed and left these words here
Нет, надо дождаться титек :) после этого только
Бывали уже там, бывали.
UFO landed and left these words here
Хм… В макхосте уже есть должность такая на окладе — спамер?
В juick спамили многократно, теперь на хабре срут.
Не знаю как у вас, но моя машина ещё лежит…
Ребята накупили дорогих игрушек (серваков и массивов новомодных) на гос. деньги, а теперь не знают что с ними делать =)
Блеать, видимо не зря была мысль сделать бекап в пятницу… Не сделал.
У меня пока тоже не загружается :( ппц…
Не знаю как у вас, но моя машина ещё лежит…
Странно, почему представители О-С никак не комментируют произошедшее?
Наверно потому что обычные работники в выходные не работают, а админы чинят виртуалки и им не до хабра.
В твиттере комментирет директор, по запросу миную очередь поднимает виртуалки.
Директор и админ в одном лице=)
Компания Оверсан отключила оборудование «Оверсан-Скалакси» за неуплату.
Никогда не доверял внешним дисковым массивам. Пусть лучше будет 10 не самых надёжных, но независимых, серверов по 5 клиентов на каждом, чем супер-пупер надёжный массив, который завалит всех клиентов разом при поломке.
Дело не в массивах, на западе их используют очень широко и работают без сбоев. А в некомпетентности сотрудников. Особенно в таких компаниях как Оверсан и Скалакси, где состав сотрудников, в том числе руководства, меняется по 3 раза в год.
Толсто. Русский бизнес такой русский.
Какие облака на западе хорошо работают?
UFO landed and left these words here
у них просто пока мало клиентов :)
им бы Ваш талант «ненавязчиво» рекламировать
А как Clodo со Скалакси связана?
это одно и тоже, но 2 разных брэнда, как Оверсан и Оверсан-Скалакси.
Ну макхост как обычно… ненавидит всех кто в Оверсане :)
вы выдумщик и фокусник, не зря в шляпе ходите=)
макхост, вы таки верните мне 30 000 р. и перестаньте мне рассылать свою долбаную рекламу!
А меня просто перестаньте спамить! Я даже никогда не был вашим клиентом!
Я просто удивляюсь как вы умудряетесь так спамить на хабре с ограничением в один коммент в пять минут.
Он и по всем форумам спамит, ограничения его не возьмут
А уточните все-таки, пожалуйста, как Clodo связан с Оверсан Скалакси? Хочется получить информацию, так сказать, из первых рук, без домыслов и прочей чуши :)
Интересуюсь как ваш клиент.
Мы арендуем в Оверсане стойки и интернет-канал.
Спасибо, теперь буду знать, что надо бояться новостей, подобных этой.
Кстати, от вас не получал никакого уведомления, что был сбой и нужно ребутнуть виртуалку. Если бы не зашел посмотреть на срач в комментах к этой новости и случайно бы не выяснил, что это и меня касается, то и неизвестно сколько бы мои ресурсы были недоступны.
Наш кластер никак не связан с кластером скалакси. Скалакси другая компания. Поэтому, если Вы наш клиент, новости о проблемах у скалакси никак Вас не должны беспокоить.
1)По трасерту они хостятся в датацентре оверсана.
tracert clodo.ru
Трассировка маршрута к clodo.ru [188.127.236.4]
с максимальным числом прыжков 30:
8 54 ms 54 ms 53 ms 188.127.254.2
9 53 ms 53 ms 53 ms Mr-O-RTC1-rsw-2.oversun.ru [188.127.254.1]
10 55 ms 55 ms 54 ms Mr-O-RTC4-rsw-1.oversun.ru [94.198.48.158]
11 54 ms 54 ms 54 ms Mr-O-RTC2-rsw-1.oversun.ru [94.198.48.90]
12 52 ms 52 ms 52 ms clodo.ru [188.127.236.4]

2)Так как облако у них вроде как не падало, то наверно у них свое облако.
3)Судя по сайту юрлицо у них тоже свое и зарегано в питере.

Отсюда можно сделать любой вывод, но думаю не стоит, а то хабра превратится в британскую газету sun.
Как поздно я очнулся и добрался до топика…

Тем не менее.
Меня зовут Нат, я сотрудник Оверсана.

Ребята из Клодо действительно только арендуют у нас стойки и интернет-канал. У них свой сервис и продукт, у нас — свой (Скалакси).

Соответственно и аварии у одного облачного провайдера не касаются другого. Это совершенно разные кластеры оборудования.
А Вы когда почините? сервер в состоянии вечного «выключается»
На help@scalaxy.ru такие вопросы лучше задавать, или через панель. Желательно ещё указывать аккаунт и какой именно сервер не поднимается.
написал, ответ «восстановление будет протекать долго» меня огорчает.
Думаю, ответ был несколько иным :)
Машины запускаются, осталось не так много.
каким бы ответ не был — все стоит.
хорошо, что основные «боевые» еще не перенес, там 1 час простоя — это потери тыс на 12-15 среднесуточно.
косяк, ребята, косяк…
Хорошо, если сбой из разряда форс-мажорных, а не «я случайно нажал, а оно как бамкнет».
Нет, далеко не такой. По ночам в субботу даже самые отчаянные ничего не нажимают без необходимости.
Нажимать пришлось потом…
Только вчера выкупил там площадку, хорошо что проект не успел перенести…
/цитата/
вот это саппорт.
Одмин негодуэ!
/цитата/
буэ на таких саппотеров!
За сегодня-вчера только на хабре прочитал 2 поста на тему «хорошей» поддержки. Это Россия, детка. :"(
UFO landed and left these words here
Упало вчера вечером, лежит до сих пор. Когда починят — не знают сами. На текущий момент это около 16 часов «облачного» простоя.

Замечу, что за последние два с небольшим месяца было шесть инцидентов с дисками, оборудованием и кривым ПО в Оверсане. Все шесть инцидентов приводили к незапланированному отключению серверов и простою. С другой стороны техподдержка круглосуточная и вежливая.

Кагбы ничего личного, но куды бечь?
UFO landed and left these words here
Да хотя бы сюда linode.com. Реально и без шуток, если хоть раз попробуете там разместить свои проекты никогда уже не вернетесь ни в какие говнооблака в россии.
Реально интересно. Если бы трафик анлим, было бы вообще идеально.
А какой проект у вас жрет так много трафика?
Сколько людей столько и мнений, пол месяца назад с радостью съехали с Linode.
А что у них не так?
Да, было бы интересно узнать, что у них не так. А то тоже там хостимся.
Пинг жуткий. Мне не понравилось.
А какой датацентр? У нас американский — подтверждаю, пинг очень большой. А вот говорят, что в английском ДЦ пинг гораздо меньше.
Заказал в английском, пинг — 50-60, залил два гига из Москвы ооочень быстро.
Аналогично в германских, пинг с москвы 50, скорость хорошая, из дц в германии в дц в Москве выжимал 10 мегабайт в секунду.
У хетзнера стоит сервер начального уровня 40$(там цены в евро), он AMD Athlon 64 3700+(одноядерный) и гиг озу. У линоды 40$ стоит чуть меньше половины одного ядра Xeon L5420(по производительности эти пол ядра будут скорее всего выше чем атлон хетзнеровский), и также гиг ОЗУ.
По месту на винте у линоды гораздо меньше конечно 32 гига против 160 гигов. Но зато есть всякие плюшки облачности. Типа апгрейда за 40 минут включая копирование данных.
За 49 евро возьмите сервер с i7- 4 ядра + 8 гб оперативы
Видел, сервера конечно мощные, только там еще 150 евро для установки платить. Суммарно 270 $ за первый месяц и 65 $ потом. Дороговато выходит сервера добавлять. Да и железо не серверное, тот же софтовый рейд смущает.
270 долларов это примерно 8 тысяч, а потом примерно 2000 в месяц.
Железо там отличное, я такое юзаю в серверах, ни одной сломанной матери, ни одного сломанного проца или памяти, летят только винты. Сервера использую в промышленном масштабе.
Чем он вас смущает, работает и не жужжит.
Летящие винты тоже проблема, у линоды летящий винт можно заметить только по небольшому простою.
А насчет чем смущает, да стремно немного использовать память без ECC, ну и последнее время что-то больше отрицательных отзывов стало о нем.
Насчет денег, впринципе конечно немного, но нам пока удобнее с linode работать, так как можно плавно мощность наращивать и над горизонтальной масштабируемостью работать.
Цены настолько ниже чем в России, что за тебе деньги я могу себе позволить 5 серверов в германии по сравнению с таким же сервером в России.
Для резервирования просто беру два сервера, и все равно выходит дешевле.
Ну linode.com в США в основном находится, как и наши клиенты, и собственно головной офис, так что нам например удобнее в США.
Если проект не только-для-роисси, то Media Temple.
Мне о аварии не сообщили. И судя по статистике ночью всё было хорошо.

В 12:19 по МСК начались проблемы: сервер ушел в масштабирование и не вернулся. Сайты были при этом недоступны.

Открыл тикет в 12:46 — ответил за 3 минуты. После ответа сервер начал отвечать, но в панельке он до сих пор якобы маштабируется. Саппорт сказал, что включение/выключение сервера сейчас недоступно т.к. ведутся работы по утстранению вчерашней аварии.

О аварии узнал с хабра после открытия тикета.
И опять сервер не отвечает… Печально.
>> Саппорт сказал, что включение/выключение сервера сейчас недоступно
>> т.к. ведутся работы по утстранению вчерашней аварии.
Мне тоже самое написали, причем без указания, когда все починят. Вот это более всего напрягает.
Ну так обычно когда чинишь, бывает не особо ясно когда починишь. Все что можно быстро починить обычно предусмотрено заранее.
Как то в сибирьтелекоме екнулся биллинг, всех пустили в инет бесплатно и заливали 27 часов бекап.
Мне отписали, что все классно и можно запускать сервера (сообщение от сегодняшнего числа, 0:36), но до сих пор не могут запуститься сервера. Грустно.
Было второе письмо, в котором опровергалось первое.
Нет, там извинялись за то, что в первом письме по ошибке открыто перечислены email-адреса всех клиентов, кому было адресовано сообщение. Посмотрите на первое сообщение в строку «Кому».
Хм, а мне не пришло письмо с извинениями о засвеченном адресе
13:29 сервер по-прежнему не запускается…
Судя по количество адресов, таких людей 307, включая Вас и меня :(
Ну опять… щас руководство начнет звонить…
Ладно хоть выходные, что будет в понедельник страшно представить, надеюсь пофиксят… ох как надеюсь…
У меня машина висит в стадии «запускается» уже несколько часов.

Отвечают:
К сожалению, операция включения/выключения сервера в данный момент невозможна. Это связанно с работами, проводимыми в рамках устранения последствий вчерашней аварии.
В ближайшее время работоспособность восстановится.
И что это даст?
Это директор их, поднимет виртуалку :-)
Не понимаю, зачем писать такое? Ну напишите в личку «Пришлите server id в личку.» Нет. Надо в коментах, чтобы все видели о заботе о клиентах. А то, что сейчас не до Хабра должно быть всем, кто может как-то помочь, так это пофиг. Все заботливые и готовы «взять под личный контроль» и при том написать об этом в газетах в коментах.
Лучше ещё один канал для общения, чем ни одного.
Радиомолчание — это выход? Вряд ли.
Я не про молчание, а про показушную «заботу» о клиентах. Просьбу выслать ID сервера можно было разослать всем в личку, а не писать в комент. И бодрый отчет о решении проблем я так понял немного рановато написали.
Так и есть. Написал, что запустил сервер. Захожу — зелененький )) Но радость длилась не долго, т.к. fs-ы вообще не монтируются ((
Кстати, у меyя тоже сервер зелененьким загорелся после того как я отправил ID. Но не отвечал… Ну, я решил ребутнуть :) Теперь сервер не в состоянии «масштабируется», а в состоянии «перезагружается».

Нужно решение проблемы, а не перекраска сервера из желтого в зеленый.

Обиднее всего, что авария меня не коснулась, а устранение последствий аварии привело к неработоспособности серверов.
Всё правильно сделали. Те у кого не работают сервера возможно читают комменты, но не пишут что они не работают.

Другое дело, что я час назад отправил ID сервера в ЛС lohansky, а толку ноль…
Как бы хваленые десятые рейды на sas дисках, с многократным резервированием не оказались помойкой на sata дисках. Которая накрылась. Вот это будет номер.
Надеюсь этого не произойдет т.к. вчера слил бэкап баз, а вот свежего бэкапа статики (около 9 гигов) у меня нет…
Я базы кроном тоже бакуплю каждый день на гмаил-сторадж, а вот статику давненько отправил на AWS, теперь нужно придумать, как ее от туда забрать. Но все таки тешат меня надежды, что все обойдется легким испугом.
что такое aws?
Извиняюсь, ошибся, на S3 отправил
и почем там гиг пространства?
Около цента вроде.
Воспользуйтесь лучше поиском по хабру, инфы валом!
Достучался таки до своего сервера. Оказывается он работал, но т.к. включение/выключение заблокировали он замер на двух слотах — ресурсов не хватало и достучаться до него было проблематично.
Когда подключился LA был около 65. Пошаманил — нагрузку снизил. Даже сайты начали грузиться :)

Все данные на месте и целые (вроде).
Кстати при общении с поддержкой скалакси в одном из писем сказали что в понедельник рассчитают и зачислят компенсацию за неудобства.
Компенскация — это лишь морфий для человека, которому отрезали ногу: боль ушла, но ноги так и нет.
Ага, рублей тридцать. Я бы им сам компенсацию зачислил, лишь бы не было двадцатичасового простоя.
Да, бабосы снимать продолжают. Енот когда не надо старается :)
Приветствую!

У нас действительно произошла авария с несколькими нодами данных, в результате чего произошло перемонтирование дисков некоторых клиентских виртуальных машин в режим read-only. Хранилище было восстановлено в течении 15 минут, но потребовались работы по поочередной перезагрузке вычислительных узлов облака, поэтому восстановление работоспособности заняло столь длительное время.

Мы с коллегами изучили эту авария и поняли, что нужно сделать, что бы навсегда избежать таких ситуаций в дальнейшем. Мы уже исправлятем эти недочеты и сделаем нашу систему хранения поистинне железобетонной.

Я от себя лично и от лица компании извиняюсь за сей неприятный момент. Всем пострадавшим будет начислена компенсация. Кроме того, мы решили поделиться с вами промокодом fail2win дающим 500 рублей, что бы вы помогли укрепить наши стены, а может и подсказали куда строиться дальше.
не нашел куда вводить промокод
Это при регистрации. Тем кто пострадал и так зачислят.
Компенсация в данном случае как мертвому припарки, серверов та НЕТ!
Скиньте в личку ids серверов.
Скинул.
Сервак желтым горит, и не туды и не сюды )
Оп-па… зря я радовался, что беда прошла мимо… И у меня такая же фигня началась в 14:55 — вначале сервак отключился, теперь висит в состоянии запускается
У меня то же самое, но с 15-43
О, заработало, с 16-34
Включился в 16:09
Простой 1:16
Все работает, больше полутора часов.
Хорошо. У меня уже более 19 часов простоя и выхода из сложившейся ситуации пока не наблюдаю.
И ещё один… Рано сообщили о победе, видимо.
У меня оба имеющихся сервера сейчас выключены. Можно ли их включать я не знаю — боюсь что опять повиснут при включении. Профиль info@omgovich.ru
говорящая у вас фамилия…
>>Всем пострадавшим будет начислена компенсация.
Ну и где компенсация?
Вы пишете в прошедшем времени, будто проблема уже решена и все сервера поднялись. А на самом деле, когда устраните последствия?
Я пострадавший. Устранятели на другой стороне фаервола ))
Да, уже понял – написал lohansky в личку.
Не теряем оптимизма ))
UFO landed and left these words here
«Гений и злодейство — две вещи несовместные» ©
Странно, что макхост сразу не проспамился, мол приходите к нам — лучший хостинг в мире! Весь твитер завален их призывами :)
Нда, наши облака самые тяжелые облака в мире.
что-то хостинг за хостингом ложится… лезут по незнанию, создавая проблемы клиентам…
Это скорее всего показатель того, что потребности в ресурсах растут, в отличии от хостеров.
Вот интересно. Сколько раз уже обсуждалось, что не нужно размещать важные(да и не важные) проекты в России, кроме проблем это никаких плюсов не имеет. Все технологии устаревшие, специалисты некомпетентные, милиция и государство коррумпированные и тп и тд. И все равно находятся идиоты, которые размещают проекты в Российских дата-центрах, а потом рвут волосы на жопе. «Русский человек любит авось, небось да как-нибудь».

Кстати, взято из новостей на сайте Оверсан:

Разработчики облака, решающего стратегические задачи российского государства и бизнеса, — группа компаний Оверсан и ОАО “Российские космические системы”( это те, которые друг друга мудаками называют habrahabr.ru/blogs/gps/110820/ ).

Не знаю кем надо быть после этого, чтобы размещать там свои проекты=)

ps. у них даже сайт кривой www.oversun.ru/slides/#section4, хотя стоит 10млн рублей=))))
Успокойся уже, бабло вернул бы лучше, чем других критиковать, сволочуга жадная. Уж лучше там размещать проекты, чем на вашем говнохосте который тупо кидает своих клиентов.
Выше было пояснение что это тролль )
UFO landed and left these words here
а у меня перестало работать ((
Добрый день, коллеги.

Я отвечу на несколько особенно популярных в топике вопросов.

Проблемы, которые возникают у некоторых пользователей при старте серверов сейчас (залипают в желтый, стартуют по полтора часа) — есть следствие ночных проблем, да. Я не буду объяснять всю техническую суть этой проблемы, но она есть, все нормализуется сегодня в течение может еще часа, двух, может и немного дольше.

Тем, кому интересно точное техническое описание проблемы — вполне возможно, что мы опубликуем его чуть позже. Возможно, оно будет интересно вам, да и нашим коллегам.

Хостинг за хостингом ложится — да, заметили вы хорошо. Ложился и раньше, ложится сейчас и будет ложиться в будущем, потому, что хостинг — некая сложная техническая платформа (особенно «облака»), любая сложная техническая платформа падает, как подметил amarao. Хостинг ложится не только в РФ, это уже миф. Вспомните, как ложились дата-центры AWS. Наша с вами задача — создавать и эксплуатировать такие платформы, которые падают не слишком часто (дают адекватный аптайм в 99,999..%) и разрабатывать отказоустойчивые приложения для управления и эксплуатации таких платформ.

Мы понимаем, что никакие компенсации и промо-акции не компенсируют в полном объеме простой ресурсов, упущенную прибыль и так далее, однако сейчас самое лучшее и важное, что можем сделать мы — сконцентрироваться на наискорейшем решении всех проблем их последствий. Но и отмалчиваться мы, естественно, не будем.

Искренне от себя и от компании прошу прощения за это падение. Спасибо за понимание.
Красивое оправдание, но оно не учитывает то, что многим срать почему ваше-чудо облако не работает. И почему вы морочите людям мозги тоже не важно. «хостинг — некая сложная техническая платформа (особенно «облака»)» — это просто отмазка. Если компания гнилая, коей является Оверсан, то никакие технологии и плюшки не помогут. Нат, я бы на твоем месте делал ноги из Оверсана, как сделали все уважающие себя сотрудники.
UFO landed and left these words here
На текущее состояние мои сервера работаю корректно. Проверьте и ваши :)
Поспешил. Сервера-то работают, а вот у одного захотел изменить парог масштабирования — начал выключать и все, машина повисла в состоянии «Выключается» :(
Не повисла, но встала в очередь. Сейчас включение/выключение достаточно долгое, пока все машины не поднимутся.
Такая же беда.
Завтра же ставлю админу задачу по бэкапам серверов =(
Сегодня же ставлю себе задачу «выполнить задачу „Настроить бекап сервера“ » :)
Коллега, не работайте хотя бы в воскресенье! =)
У Вас уже есть какие-нибудь идеи как организовать регулярные бэкапы?
Все зависит от нагруженности и частоты обновления информации на сервере. Коллеги выше омолвились о Google Storage и Amazone S3 как о месте хранения. Сейчас смотрю как организован доступ к ним. А из приложений пока ничего дельного не нашел — авторы статеи в интернете только и делают, что архивируют всю структуру и отправляют архив во внешнее хранилище. По мне, так это пустая трата времени и ресурсов. Коллеги, как вы бекапите систему?
При записи в какой-либо файл s3fs считывает целиком предыдущую версию файла на компьютер, в локальной копии происходят все модификации, и после закрытия файла он целиком заливается обратно на S3. Это означает, что даже дозапись нескольких байт в архивный файл размером 500 мегабайт приведёт к передаче гигабайта по сети.

Как-то мутно всё. Не проще сервер в другом ДЦ арендовать?
Если bacula director и storage на другой машине внутри аккаунта (если речь о Скалакси), то этот гигабайт незаметен (благо, внутри аккаунта сеть 100Мбит/1Гбит).
Ещё можно лить уже сделанные бакулой бэкапы на s3 отдельно, а не через s3fs.
В бекапе внутри ДЦ смысла нет – что если сервер бекапа заденет вместе с основным?
Bacula director заливает файлы на s3 (схема работы по ссылке), просто обычно его запускают на отдельной машине.
Прошу прощения, невнимательно прочитал Ваш предыдущий комментарий. Получается, схема следующая: поднимаем внутри ДЦ еще один сервер, вешаем на него bacula, который бекапит систему, после чего готовый бекап отправляем на s3. Правильно? И еще, насколько целесообразно ставить bacula storage на основной сервер? Насколько возрастет нагрузка?
В случае отдельного director логичнее storage сделать на нём (если не выносить никуда)
Ничего мутного. Это единственный вариант сделать append файлу на S3. Если вы скажете бакуле закрывать том сразу после бэкапа, то append никогда не понадобится. Хотя чего вы его так боитесь, я не понимаю. Тем более в скалакси, где трафик бесплатный.
Мыши кололись, но с кайфом продолжали жрать кактус. Сборище мазахистов=)
UFO landed and left these words here
Интересовался у саппорта положением дел:
Основные проблемы уже решены, подняты практически все задетые машины. Сейчас наблюдаются проблемы с машинами, которые запускали до 16 часов — в ближайшее время поднимем и их.
любая система рано или поздно даст сбой. даже те же google apps или s3, ничто не вечно. уж сколько раз твердили, если у вас mission critical tasks — полагайтесь только на себя. по крайней мере вы всегда сможете развернуть бекапы сразу а не «в порядке очереди».
хороший сервис. но дорого. надо еще дешевле чтобы на «линейке» минимум был.
Дорого? o_O ???? Где дешевле и лучше???
Сервер так и весит. Грустно, у нас уже утро а он людям нужен…
Какой сервер? Аккаунт, ID? Поднято практически всё уже. Можно номер тикета, если есть.
сервер 3768
тикет 3389
Причем часов 10 назад отрапортовали, что сделали
Ответили.
Уведомление о том, что машины могут медленно подниматься, отосланное 13 часов назад, не стоит воспринимать как «всё сделали». Впрочем, Ваша машина запускалась и ранее, если верить логу.
Спасибо, теперь точно все работает )))
Одни из последних поднялись.
Хотя до этого сервер работал, посмотрите в лог панели. Непонятно, почему доступа не было.
Моё облако до сих пор лежит. Тикет 3470. Сколько ждать-то?
Очень странно. Сейчас посмотрим, всё уже поднялось, в общем смысле. Минуту.
Похоже перманентный трындец у скалакси продолжается. Вчера вечером выбило сервер, он не запускается. Другой не выключается.
Продолжается, факт. Еще два раза была самопроизвольная остановка сервера. Сейчас сижу, курю бамбук, жду когда поднимут. Медленно, но уверенно начинаю жалеть о переезде. Нет в жизни счастья
Вчера проблема, сегодня проблема… Каждый день проблема. Надоело уже.
Посоветуйте альтернативы. Клодо и селектел не предлагать, пожалуйста.
Это я писал вчера, а в 9 утра сервер опять отключился.
Ага. Я видел, что вчерашний пост. Вчера у мня тоже были проблемы. И сегодня в 14 примерно опять с дисками трабл.
Опять двадцать пять, уже час простоя. Это стало уже доброй традицией.
Да это пи… чаль! За сегодня 2 сбоя!
Уже заработало.
Поздравляю. У меня до сих пор нет. Диск с ДБ с 15 часов не работает.
Only those users with full accounts are able to leave comments. Log in, please.