Comments 167
И на том спасибо. А мы все теряем и теряем бабло и доверие посетителей.
Около 04:00 MSD сегодня, 28.05.09, стал недоступен блок европейского датацентра мастерхост под кодовым названием EU2. Сервер проработал всего 5 дней с момента установки. Звонок ничего не прояснил, сказали, что срок решения вопроса не известен. Отличное начало знакомства с европейскими дедиками у МХ!!!
Как пользователь сервер которого не работает по 120 часов в месяц (!) - могу заверить, что мне совершенно все равно; тем более, что нет договоров ни с Рамблером, ни с поставщиками кондиционеров Рамблеру, ни с поставщиком железа Мастерхосту - только с Мастерхостом.
Именно за это ему, мастерхосту и платится - за все, оптом: за место в стойке, порт, электричество, администрирование - как раз, что б нельзя было кивать на то, что "это не наша зона ответственности".
Толку никакого..
Именно за это ему, мастерхосту и платится - за все, оптом: за место в стойке, порт, электричество, администрирование - как раз, что б нельзя было кивать на то, что "это не наша зона ответственности".
Толку никакого..
Найти приличный коллокейшн в москве не так уж и просто.
да, я тоже удивляюсь, что перенести сотню сайтов, местами завязаных друг на друга и на внешние сервисы не так просто как домашнюю страничку
отлить новую машину, проконтролировать админа и разобраться что б там все жило - тоже требует времени
это несправедливо!
года этак с 2000 я время от времени переезжал от провайдера к провайдеру - сначала со своими машинами, теперь вот с арендованными - вы, видимо, нашли идеального хостера; всем этого желаю
отлить новую машину, проконтролировать админа и разобраться что б там все жило - тоже требует времени
это несправедливо!
года этак с 2000 я время от времени переезжал от провайдера к провайдеру - сначала со своими машинами, теперь вот с арендованными - вы, видимо, нашли идеального хостера; всем этого желаю
Держит нас там, например то, что много денег лежит. Это раз.
Второе: действительно надоели падения и изменения в условиях предоставления услуг (10 метров оперативы на исполнение пхп скрипта это вообще как? А ведь было 24)
Третье: методом проб и ошибок надоело искать достойный хостинг - хочется остановиться на чём-то одном. Сначала был мастерхост, потом они пожадничали, тепеть РБК.
Ну и последнее: а разве за баги отвечает не мастерхост? Если мы его клиенты - пусть исправляет, а не орёт, что рамблер виноват в падении Вашего сайта.
Кароче, скатился мастерхост с достойного второго места по качеству хостинга до сотого, или где-так.
Второе: действительно надоели падения и изменения в условиях предоставления услуг (10 метров оперативы на исполнение пхп скрипта это вообще как? А ведь было 24)
Третье: методом проб и ошибок надоело искать достойный хостинг - хочется остановиться на чём-то одном. Сначала был мастерхост, потом они пожадничали, тепеть РБК.
Ну и последнее: а разве за баги отвечает не мастерхост? Если мы его клиенты - пусть исправляет, а не орёт, что рамблер виноват в падении Вашего сайта.
Кароче, скатился мастерхост с достойного второго места по качеству хостинга до сотого, или где-так.
Читал как прикол, а похоже, инжинер таки правду написал.
Просто когда это касается кого-то, это прикол или просто некая инфа от соратнега. А когда у тебя лично исчезает средство пополнения бюджета, при этом ты сам ничего не можешь сделать - видишь ситуацию по-другому ;)
Да Вы, может, не поняли, о чем я.
Я когда прочел про лед и солнцезащитные экраны, подумал - фантастика :))) В моё время достаточно было снять боковую крышку с корпуса и офисный вентилятор на проц направить :)))
Я когда прочел про лед и солнцезащитные экраны, подумал - фантастика :))) В моё время достаточно было снять боковую крышку с корпуса и офисный вентилятор на проц направить :)))
:) там ети, стойки 19-дюймовые и толпы-толпы-толпы серверов в них
причем ладно арендованные - пускай вентиляторами и веерами охлаждают, но если бы кто полез с вентилятором в мою собственную машину по своей инициативе...
причем ладно арендованные - пускай вентиляторами и веерами охлаждают, но если бы кто полез с вентилятором в мою собственную машину по своей инициативе...
Господа, поправьте меня если неправ: краем уха слышал, что по тех-стандартам в дата-центре не должно быть окон.
;) если найдете сервер с боковой крышкой, выложите фотку
Уважаемый инжИнер. Вот уже 4 часа у меня в ауте 3 сервера на вашем хостинге, достучаться ни по телефону, ни по почте невозможно (по почте стандартный ответ про зону ответственности и т.п.).
Коли у вас есть время хабру читать, ответьте — когда же поднимите то? Приблизительно хотя бы.
Коли у вас есть время хабру читать, ответьте — когда же поднимите то? Приблизительно хотя бы.
я дозвонился (наш звонок 26 в очереди) - ничего путного сказать не могут ;(
По телефону достучаться можно, только нужно повисеть на линии минут 15. Хотя наверно уже наверно больше, я думаю уже все вебмастера спохватились.
Мой сервак вырубался и перед 8 марта и перед 9 мая. Это была жесть так как на выходных Masterhost отдыхает. Админ у них есть но он как сказали "работает удаленно", то есть заменить винт или что-то еще не может. Выходной ведь. Надо отдыхать.
Мой сервак вырубался и перед 8 марта и перед 9 мая. Это была жесть так как на выходных Masterhost отдыхает. Админ у них есть но он как сказали "работает удаленно", то есть заменить винт или что-то еще не может. Выходной ведь. Надо отдыхать.
Это верно. А потом отвечает мальчик или девочка, что мол авария и когда починим не знаем. Ждите.. ;-)
Причем все это на фоне их 100-процентного повышения тарифов на колокейшн с 15 июня. Клиентов нахватали изрядно, а обслужить уже мощи нет.
Причем все это на фоне их 100-процентного повышения тарифов на колокейшн с 15 июня. Клиентов нахватали изрядно, а обслужить уже мощи нет.
На самом деле по прошлым "сбоям" у нас есть опыт общения и с начальниками отделов и извинения от технического директора и предложения компенсации деньгами.
То есть, пробиться сквозь сапорт можно (сапортеры, кстати, ни в чем не виноваты и получают по башке со всех сторон - и от нас и от начальства), но реальной пользы от этого нет ;-(
То есть, пробиться сквозь сапорт можно (сапортеры, кстати, ни в чем не виноваты и получают по башке со всех сторон - и от нас и от начальства), но реальной пользы от этого нет ;-(
Только неудачник оправдывается и ищет причины, умный- учится и исправляет молча.
Гм. Я хотел вам как инженеру датацентра задать вопрос. У вас есть дублирующие системы? Или как обычно в россии сэкономили?
Слабо сделать нормальную инфраструктуру? Или лучше вот так геройствовать за счет клиентов?
Хо-хо-хо, инжинер.
спасибо за коммент в любом случае - но как попасть в нижнюю стойку? Это вроде авто номера 001?
А при чём тут вообще рамблер ? У человека договор с Мастерхостом, а не с рамблером !
мля как приятно то =) завтра еще жарче обещали =)
Сервера лежат? Ну так жара-то какая. Я вот тоже лежу, да.
Я в нашу серверную хожу что бы охладиться... ))) Придешь, постоишь минут 5 - красота!
Да просто каждый год лето приходит неожиданно.
а рамблер работает как ни в чем не бывало )))
рамблеру хорошо - работников у него значит больше ;)
да, взяли стопку листиков и машут.. машут.. машут)
Пора ставить ставки, господа, когда же включат сервера. Уважаемый инженер, вы, к сожалению, не можете принять участие ;)
Ну все. Поднялись серваки ;)
а почему вы (вебмастера, клиенты мастерхоста) не заведёте себе резервные серверы, где-нибудь на другой половине земного шара, в сша или канаде? я понимаю, что для работы они мало подходят (пинги там большие для москвы, для оплаты нужны реальные кредитки, а не вебмани, да и всё на английском), но учитывая копеечную стоимость североамериканского хостинга в сравнении с российским, как резерв - вполне сгодятся.
вы слабо представляете себе стоимость dedicated?
а некоторые здесь ещё и collocation пользуются вы предлагаете купить приличные сервера, привезти их в Техас и использовать лишь для резерва, когда Мастерхост падает?
а некоторые здесь ещё и collocation пользуются вы предлагаете купить приличные сервера, привезти их в Техас и использовать лишь для резерва, когда Мастерхост падает?
10 евро в месяц - разве это много для резервного сервера? я не говорю про серверы для игр, я про резервный virtual dedicated server под обычные сайты типа хабры, форумы и т.п.
ну это ваш бизнес, вам решать :)
а тем временем masterhost вроде ожил, зато mail.ru теперь в дауне...
ну это ваш бизнес, вам решать :)
а тем временем masterhost вроде ожил, зато mail.ru теперь в дауне...
на счёт mail.ru
полчаса назад ещё почту можно было прочитать тут: pda.mail.ru, а сейчас иногда тока майлагент о спаме попискивает.
серваки поднялись.. а вот сайт webplanet.ru пока работу не востановил
полчаса назад ещё почту можно было прочитать тут: pda.mail.ru, а сейчас иногда тока майлагент о спаме попискивает.
серваки поднялись.. а вот сайт webplanet.ru пока работу не востановил
Похоже вы никогда не пользовались vds. По моему это пустая трата денег, поскольку они не воспроизводят и сотой доли производительности реального dedicated. Самая большая проблема НЕ в дублировании на переключение между серверами, как некоторые думают, а в репликации данных (ведь актуальность данных в социальном проекте как нигде велика) может так получиться, что синхронизация серверов обойдётся в несколько раз дороже хостинга. В такой ситуации может оказаться дешевле хоститься в европейских ДЦ монстров типа Level3 (и пинг до Москвы там не настолько плох, как кажется).
Уважаемый а теперь поясните как вы оперативно в течении хотя бы 10 минут переключите обслуживание между серверами? Учитываем что ip адреса разные и находятся в разных автономных зонах.
1. dns roundrobin (для уников)
2. ICMP route changed (не очень действенно)
3. тоннель с помощью провайдерского cisco, если он не погорел вместе с серверами.
2. ICMP route changed (не очень действенно)
3. тоннель с помощью провайдерского cisco, если он не погорел вместе с серверами.
1. Должны работать оба сервера. И замечу что часть пользователей будет попадать на лежащий в данный момент сервер.
2. а кто его будет обеспечивать? Сервер то тютю.
3. Кто будет поднимать и кто будет обеспечивать своевременное поднятие?
PS На данный момент это можно организовать только при помощи железяки-посредника (load balancer) которая будет в случае падения узла автоматически перенаправлять все запросы на второй сайт.
2. а кто его будет обеспечивать? Сервер то тютю.
3. Кто будет поднимать и кто будет обеспечивать своевременное поднятие?
PS На данный момент это можно организовать только при помощи железяки-посредника (load balancer) которая будет в случае падения узла автоматически перенаправлять все запросы на второй сайт.
1. BIND9 позволяет периодически пинговать сервера и исходя из этого раскидывать roundrobin. Это решение самое дешевое, но требует ТРЕТЬЕГО сервера под DNS. впрочем с этим может справиться и cisco.
2. Маршрутизатор конечно, причём в автоматическом режиме. Но сам способ давно малоэффективен большинство сетей фильтрует ICMP пропуская только ping
3. Хороший провайдер может. Вопрос лишь в том, кто хороший провайдер.
Да всем этим должна заниматься нормальная железяка, и у провайдеров есть такие. Другое дело, что нет ни практики ни востребованности в такой работе (зачем им кормить конкурента?)
2. Маршрутизатор конечно, причём в автоматическом режиме. Но сам способ давно малоэффективен большинство сетей фильтрует ICMP пропуская только ping
3. Хороший провайдер может. Вопрос лишь в том, кто хороший провайдер.
Да всем этим должна заниматься нормальная железяка, и у провайдеров есть такие. Другое дело, что нет ни практики ни востребованности в такой работе (зачем им кормить конкурента?)
под BIND можно взять самый дешевый VDS.
все приведенные вами решения требуют не двух а трех серверов :) В первом случае четырех :)
Указанные решения требуют лишь использования существующего коммуникационного оборудования (тех же штатных маршрутизаторов ДЦ) по прямому назначению. Если вы считаете, что маршрутизаторы CISCO стоят от $5k (а хорошие балансеры от $20k) только для того, чтобы сливать данные из ДЦ в разные каналы связи, то вы сильно недооцениваете их возможности и предназначение.
Это официальная рекомендация клиентам компании Мастерхост?
кластеры-шмастеры, ну зачем всё усложнять? сервер в мастерхосте отключили - пользователь перенаправляется на резервный сервер где-нибудь в Канаде. Синхронизировать, по сути, ничего и не придётся, нужно будешь лишь переписать новую базу поверх старой. Если оба сервера в сети - работает основной. Обновления базы дублируются с основного на резервный. Если связи между серверами нет - работает резервный. Если связь восстановилась - пять минут на копирование базы с резервного на основной.
Ну и третий сервер DNS для разруливания трафика.
Даже самому интересно стало, надо попробовать реализовать у себя :)
Ну и третий сервер DNS для разруливания трафика.
Даже самому интересно стало, надо попробовать реализовать у себя :)
Еще раз повторяю. 2 сегмента. Работают оба. Если связь между ними есть, то юзеры просто не попадают на резервный сервер, их направляют на основной. Если же нарушена связность сети, то не работает основной сервер, юзеры идут на резервный. Поверх - имелось ввиду именно поверх, как файл. Упрощённая схема, именно на случай "сгорания винта", когда для восстановления работоспособности нужно длительное время.
А вообще, если писать сразу распределённый форум, то проблем быть не должно, айди у каждого сервера свой, отличающийся от остальных. Интересная идея, спасибо, на досуге покопаюсь, скорее всего, уже давно реализовано до нас.
А вообще, если писать сразу распределённый форум, то проблем быть не должно, айди у каждого сервера свой, отличающийся от остальных. Интересная идея, спасибо, на досуге покопаюсь, скорее всего, уже давно реализовано до нас.
Главное, какой из них работает для load balancer.
Если реализовывать репликацию средствами БД, то ничего с готовым движком форума делать не нужно. Другое дело, что не все БД подходят на эту роль и связь между ДЦ должна быть хорошей. в какой-то момент роста вам в любом случае прийдётся думать над масштабированием и тогда в любом случае прийдётся писать схемы с разделением БД на куски (Oracle например умеет делить между серверами даже индивидуальную таблицу) и фронт-энд серверов (на которых находится движок)
Вам не кажется, что углубляться в детали репликации в этом топике излишне?
Я лишь говорил о принципиальной возможности, стараясь не углубляться в тонкости реализации репликаций и кластеризации. Message был в том, что "это решаемо и называется 'репликация БД'". По идее этой информации достаточно для того, чтобы иметь в виду такую возможность в случае необходимости. Я углубился не более чем
Vitaly ровно до уровня организации процесса.
Давайте закроем этот вопрос?

Давайте закроем этот вопрос?
Вы героически не хотите видеть написанное :)
На мой взгляд
Vitaly всё понял правильно, но ответил вам результат следующего шага размышлений и потому вы за ним не угнались. Он совершенно прав насчёт АКТУАЛЬНОСТИ данных на резервном сервере ваш способ может угробить сам социальный сервис, если зайдя на резервный сервер пользователи не увиядт там ВСЕ свои сообщения и обсуждения. А сам по себе ваш способ не гарантирует такую целостность баз, да ещё и вынуждает простаивать дорогостоящее оборудование.

Да, идея сложная в реализации, но вполне реализуемая средствами репликации БД, хотя воплощать её имеет смысл только когда на карту поставлены действительно большие деньги. Посмотрите на досуге как из этой ситуации выкрутился Google. В меньших масштабах нужно лишь использовать механизмы встроенной репликации БД (даже в MySQL недовно появилось что-то), что позволит синхронизировать сообщения на двух копиях форума в реальном времени, возможно даже без потери даже одного сообщения в момент падения ДЦ. Ещё проще выбрать качественный иностранный хостинг, если российский настолько слаб, что считает нормальным экономить на кондиционировании.
Форум только копит данные, что там сложного в синхронизации?
P.S. Я в технических деталях не понимаю.
P.S. Я в технических деталях не понимаю.
Случайное число тоже не гарантирует уникальности идентификатора. Лучше не надо здесь про уникальные идентификаторы.
Но юному вебмастеру как раз и предначертано попариться, прежде чем осознает он, что автоинкремент для PK - зло :)
Но юному вебмастеру как раз и предначертано попариться, прежде чем осознает он, что автоинкремент для PK - зло :)
When multiple servers are configured as replication masters, special steps must be taken to prevent key collisions when using AUTO_INCREMENT columns, otherwise multiple masters may attempt to use the same AUTO_INCREMENT value when inserting rows.
The auto_increment_increment and auto_increment_offset system variables help to accommodate multiple-master replication with AUTO_INCREMENT columns. Each of these variables has a default and minimum value of 1, and a maximum value of 65,535. They were introduced in MySQL 5.0.2.
Кстати о птичках
The auto_increment_increment and auto_increment_offset system variables help to accommodate multiple-master replication with AUTO_INCREMENT columns. Each of these variables has a default and minimum value of 1, and a maximum value of 65,535. They were introduced in MySQL 5.0.2.
Кстати о птичках
Плохо когда такие ситуации случаются, но хуже когда их не комментируют и не решают в быстром порядке...
А зачем вообще Вы хоститесь в мастерхосте? гнилая контора, которую давить надо. Отказы оборудования в масетрхосте давно уже норма, в техподдержку не дозвониться, на почту не отвечают.
"Ежики кололись, но продолжали жрать кактус" (с)
"Ежики кололись, но продолжали жрать кактус" (с)
Лично я ушёл не из-за качества они работают ничем не хуже godaddy.
Думаю в любой большой хостерской конторе случаются и проблемы и казусы с сапортом.
Думаю в любой большой хостерской конторе случаются и проблемы и казусы с сапортом.
Дело не в казусах с саппортом, дело в том, что у людей инфраструктура не рассчитана на их аппетиты. Проще говоря, они берут бабло за услугу, которую принципиально не могут оказать качественно. И им не это насрать.
Мы с вами похоже работали с разными Мастерхостами =)
У меня остались хорошие воспоминания об их сервисе, впрочем не исключено, что именно потому, что на моей памяти таких инцидентов не было и они не смогли проявиться со столь плохой стороны.
В любом случае проблема кондиционирования лежит на хостере, и если эту падлянку устроил им хозяин датацентра, то пусть выставляют им иски по совокупности потерь клиентов, но снимать ответственность с себя они ИМХО не должны.
У меня остались хорошие воспоминания об их сервисе, впрочем не исключено, что именно потому, что на моей памяти таких инцидентов не было и они не смогли проявиться со столь плохой стороны.
В любом случае проблема кондиционирования лежит на хостере, и если эту падлянку устроил им хозяин датацентра, то пусть выставляют им иски по совокупности потерь клиентов, но снимать ответственность с себя они ИМХО не должны.
вывел формулу мастерхоста и Гены Букина - 'стабильно два раза в год'.
Да, от неприятностей никто не застрахован. Но такое отношение к клиентам - непростительно.
Вроде серьезная контора.
Отмазываться зоной ответсвтенности - очень странно. Как деньги брать, то все путем.
Вроде серьезная контора.
Отмазываться зоной ответсвтенности - очень странно. Как деньги брать, то все путем.
Нам сегодня пришло такое же письмо. Но сервер продолжает корректно работать. На всякий случай забэкапились.
Крику много, толку мало.
Выдержка из договора Мастерхоста.
4.5. Оператор, ни при каких обстоятельствах не несет ответственности перед Абонентом за косвенные убытки. Понятие «косвенные убытки» включает, но не ограничивается, потерю дохода, прибыли, ожидаемой экономии, деловой активности или репутации. Оператор несет ответственность за документально подтвержденный реальный ущерб. Предельный размер ответственности за реальный ущерб в любом случае не может превышать 5600 рублей (200 у.е.) за каждый случай нанесение ущерба. Действие данного пункта не распространяется на Абонентов – физических лиц.
И так везде. Вы, наверно, в сказке живёте.
Выдержка из договора Мастерхоста.
4.5. Оператор, ни при каких обстоятельствах не несет ответственности перед Абонентом за косвенные убытки. Понятие «косвенные убытки» включает, но не ограничивается, потерю дохода, прибыли, ожидаемой экономии, деловой активности или репутации. Оператор несет ответственность за документально подтвержденный реальный ущерб. Предельный размер ответственности за реальный ущерб в любом случае не может превышать 5600 рублей (200 у.е.) за каждый случай нанесение ущерба. Действие данного пункта не распространяется на Абонентов – физических лиц.
И так везде. Вы, наверно, в сказке живёте.
Я поднял тему отношения компании к клиенту. Вопрос компенсации тоже интересен, мне, например потребовалось много времени, чтобы хотя бы привлечь внимание менеджеров к этому вопросу и получить ответ, что они рассмотрят жалобу в течение 60 дней. Мне это не актуально так как я нашел другого хостера.
А особенности компании таковы:
- Если железо на вашем сервере сломалось в пятницу, задумаются о решении проблемы не раньше понедельника.
- Если ваш сервер сломался, вам потребуется сделать несколько звонков, чтобы хоть что-то начали делать (если это не пятница вечер или выходной) и еще раз позвонить и убедиться, что действительно начали.
- Вам вряд ли удастся поговорить с кем-то дальше мальчика саппортера, который будет говорить стандартные фразы и вешать вам лапшу на уши.
- Данные могут пропасть, вам накатят старый бэкап, вам скажут "вы сами запускали скрипт", винты будут лететь одновременно снова и снова, вам скажут "это уникальный случай" ;)))
- Цены вверх, качество вниз.
А особенности компании таковы:
- Если железо на вашем сервере сломалось в пятницу, задумаются о решении проблемы не раньше понедельника.
- Если ваш сервер сломался, вам потребуется сделать несколько звонков, чтобы хоть что-то начали делать (если это не пятница вечер или выходной) и еще раз позвонить и убедиться, что действительно начали.
- Вам вряд ли удастся поговорить с кем-то дальше мальчика саппортера, который будет говорить стандартные фразы и вешать вам лапшу на уши.
- Данные могут пропасть, вам накатят старый бэкап, вам скажут "вы сами запускали скрипт", винты будут лететь одновременно снова и снова, вам скажут "это уникальный случай" ;)))
- Цены вверх, качество вниз.
Пункт первый не согласуется со вторым и третьим пунктами. Ибо:
- если вы так точно знаете, когда задумаются о решении проблемы, то у вас точно есть возможность обойти саппорт и выйти на людей, принимающих решения. :)
Про 60 дней - это нормальная страховка от форсмажора, неужели вы в своём бизнесе не страхуетесь? Ваш ответ рассматривали в течении 60 дней?
Про мальчиков с лапшой я по собственному опыту знаю, что это не так. Поставьте разговор правильно, с вами будут говорить на другом языке. Или найдите другого "мальчика".
Про бэкап на винте своей машины никак не буду оспаривать - не сталкивался, не знаю.
А что за новый хостер? Интересно.
- если вы так точно знаете, когда задумаются о решении проблемы, то у вас точно есть возможность обойти саппорт и выйти на людей, принимающих решения. :)
Про 60 дней - это нормальная страховка от форсмажора, неужели вы в своём бизнесе не страхуетесь? Ваш ответ рассматривали в течении 60 дней?
Про мальчиков с лапшой я по собственному опыту знаю, что это не так. Поставьте разговор правильно, с вами будут говорить на другом языке. Или найдите другого "мальчика".
Про бэкап на винте своей машины никак не буду оспаривать - не сталкивался, не знаю.
А что за новый хостер? Интересно.
Если каждый случай это хост потенциально клиента? Заказ на 2000$
у нас договор на физлицо - из этого есть как плюсы так и минусы, если бы было желание судиться
главные плюсы: нормы фзозпп (в частности, в лесу я видел этот пункт), подсудность по нашему выбору, а не в Москве
плохо то, что мне вот непонятно, как из такого иска намутить сколько-нибудь заметное кол-во денюх
впрочем, фик с ними; судиться не будем - хочу верить, что это обсуждение уже обошлось мегапровайдеру дороже.. то ли еще будет
главные плюсы: нормы фзозпп (в частности, в лесу я видел этот пункт), подсудность по нашему выбору, а не в Москве
плохо то, что мне вот непонятно, как из такого иска намутить сколько-нибудь заметное кол-во денюх
впрочем, фик с ними; судиться не будем - хочу верить, что это обсуждение уже обошлось мегапровайдеру дороже.. то ли еще будет
Как инженер да по совместительству тех суппорт всегда поражаюсь таким вот крикам. Ах лёг Gmail, Ах мастерхост лежит. Проблемы бывают у всех! И проблемы с зонами ответственности бывают у всех. Мне это напоминает сегодняшнюю сцену на работе. Зовет меня главбух и жалуется дескать ей нужно почту ОЧЕНЬ срочно отправить, а у нее "не работает". Пришел смотрю, да рамблер лежит и тихо извиняется об этом. Дескать работы ведутся. Вот тётя начала орать на меня что ей срочно и именно с её ящика. Кроме как развести руками и объяснить про зоны ответственности ничего не остается. Это нормально. И далеко не любую проблему можно решить моментально.
Проблему нужно решать, пока она еще не наступила. Заранее то есть.
Тоже самое было, вбил работающий smtp и проблема была решена..
Тратьте на обсуждение проблемы 10% времени а 90% на ее решение..
Может флешмоб проведем - подвоз сухого льда к датацентру?
Тратьте на обсуждение проблемы 10% времени а 90% на ее решение..
Может флешмоб проведем - подвоз сухого льда к датацентру?
согласен, пусть компенсируется деньгами. Было дело - мастерхост зачислял по n денег. Пусть и сейчас так.
Вопрос не в разграничении прав, а в недальновидности менеджеров. Думаете, что и до и после первого случая к ним инженеры не приходили и не говорили, что необходима дублирующая система? Да приходили и говорили. Толку только мало. По этому я товарищу с мастерхоста и задал вопрос про дублирующую систему.
Про зоны ответственности:
1. Ваш главбух может смело подавать в суд на Рамблер (если не читала их лицензию). К вам претензий быть не может вы не гарантировали ей условия доступности почты. А хостер в свою очередь гарантирует условия эксплуатации серверов.
2. Когда вы заключаете договор о collocation разве вы не оговариваете требование соблюдения нормативных условий эксплуатации вашего сервера от хостера? Если требуете, то можете подавать на них в суд за каждое превышение температуры (термодатчики у всех серверов есть?) и компенсаций недополученной прибыли в случае отключения оборудования из-за жары. В договоре должно чётко описываться необходимость предварительного согласования каждого эпизода остановки сервиса для минимизации потерь и только в таком случае отказ от судебного преследования.
Если кто-то попытается списать недостаток кондиционирования на форс-мажор, то в суде у него ничего не получится нормативы охлаждения и спецификации оборудования не сойдутся, что докажет вину датацентра и отсутствие условий непреодолимой силы. В худшем случае в суде будет доказана непригодность помещения для такого рода деятельности и ДЦ вобще вылетит на улицу.
1. Ваш главбух может смело подавать в суд на Рамблер (если не читала их лицензию). К вам претензий быть не может вы не гарантировали ей условия доступности почты. А хостер в свою очередь гарантирует условия эксплуатации серверов.
2. Когда вы заключаете договор о collocation разве вы не оговариваете требование соблюдения нормативных условий эксплуатации вашего сервера от хостера? Если требуете, то можете подавать на них в суд за каждое превышение температуры (термодатчики у всех серверов есть?) и компенсаций недополученной прибыли в случае отключения оборудования из-за жары. В договоре должно чётко описываться необходимость предварительного согласования каждого эпизода остановки сервиса для минимизации потерь и только в таком случае отказ от судебного преследования.
Если кто-то попытается списать недостаток кондиционирования на форс-мажор, то в суде у него ничего не получится нормативы охлаждения и спецификации оборудования не сойдутся, что докажет вину датацентра и отсутствие условий непреодолимой силы. В худшем случае в суде будет доказана непригодность помещения для такого рода деятельности и ДЦ вобще вылетит на улицу.
Я не понимаю как такое вообще может быть. Любая аппаратура в дата центре должна присутствовать как минимум 2 раза. По крайней мере в одном немецком дата центре, где находятся мои серверы так есть. Если например кондиционер ломается (чего ВСЕГДА стоит ожидать), то всегда должна предоставляется возможность активировать запасной кондиционер.
Ну а по поводу цен я вообще молчу. Вас там просто обманывают.
Ну а по поводу цен я вообще молчу. Вас там просто обманывают.
это 100% проблема мастерхоста и их жадности в отношении системы жизнеобеспечения ДЦ.
ситуация повторяется 3й раз. при чем последний раз был месяцев 9 назад и могли бы за зиму подготовится к новому сезону.
мы не в африке живем, чтобы сваливать проблему на жаркую погоду. в силиконовой долине все работает окей.
тем кто кричит про переход на другие хосты хочется задать простой вопрос - а какие? в россии нет действительно качественных хостеров. к счастью у мастера проблемы только с кондиционированием. агавы, инфобоксы и тд - совсем не годятся для серьезных проектов и отношение к серверам более халатное.
ситуация повторяется 3й раз. при чем последний раз был месяцев 9 назад и могли бы за зиму подготовится к новому сезону.
мы не в африке живем, чтобы сваливать проблему на жаркую погоду. в силиконовой долине все работает окей.
тем кто кричит про переход на другие хосты хочется задать простой вопрос - а какие? в россии нет действительно качественных хостеров. к счастью у мастера проблемы только с кондиционированием. агавы, инфобоксы и тд - совсем не годятся для серьезных проектов и отношение к серверам более халатное.
на мой взгялд, мастерхост один из лидеров, предоставляющий
хостинг. не раз хотел попробывать с ним поработать, но не
удалось.
теперь я в растерянности. ну кого на вскитку можно назвать
лидерами хостинг компаниями? скажем, голден телеком. а он,
помню, в свою очередь тоже прекращал работу где-то летом на
часов 6. 6ч. за год казалось бы мало, но ем не менее, если
у тебя посещаемость сайта более 5тыс. до половина из них не
просто скажут "вот казлы, не работают..((", одним словом сайт
в их глазах опустится.
кому доверять прост не знаю.
сам сижу на рбк хосте. тьфу-тьфу, никогда неожиданных выключений
не было, хотя я мог спокойно пропустить. помню только раз, за
неделю, они предупредили о выключении серваков на час. ну лан,
подумал я, это ещё куда не шло.
хостинг. не раз хотел попробывать с ним поработать, но не
удалось.
теперь я в растерянности. ну кого на вскитку можно назвать
лидерами хостинг компаниями? скажем, голден телеком. а он,
помню, в свою очередь тоже прекращал работу где-то летом на
часов 6. 6ч. за год казалось бы мало, но ем не менее, если
у тебя посещаемость сайта более 5тыс. до половина из них не
просто скажут "вот казлы, не работают..((", одним словом сайт
в их глазах опустится.
кому доверять прост не знаю.
сам сижу на рбк хосте. тьфу-тьфу, никогда неожиданных выключений
не было, хотя я мог спокойно пропустить. помню только раз, за
неделю, они предупредили о выключении серваков на час. ну лан,
подумал я, это ещё куда не шло.
меня вот что поражает больше всего.
все в курсе, что мастерхост — гуано в общем и целом. и пользоваться им не рекомендуется.
тем не менее, активно пользуются, а затем еще активней визжат по поводу подхода к клиентам.
странно мне это.
все в курсе, что мастерхост — гуано в общем и целом. и пользоваться им не рекомендуется.
тем не менее, активно пользуются, а затем еще активней визжат по поводу подхода к клиентам.
странно мне это.
webplanet.ru среди этих "счастливчиков"?
зы. буквально неделю назад хотел к мастерхосту съехать) Хорошо что остался у Мажордомо.
зы. буквально неделю назад хотел к мастерхосту съехать) Хорошо что остался у Мажордомо.
такой вот ответ Мастерхоста:
Температурный режим в дата-центре на ул. Автозаводская, к сожалению, по предварительным прогнозам, завтра (во вторник) также не будет штатным. Все связанные с этой ситуацией вопросы решаются на уровне руководства и держатся под постоянным контролем.
Температурный режим в дата-центре на ул. Автозаводская, к сожалению, по предварительным прогнозам, завтра (во вторник) также не будет штатным. Все связанные с этой ситуацией вопросы решаются на уровне руководства и держатся под постоянным контролем.
И еще:
На текущий момент ответить точно на Ваш вопрос не представляется возможным, в связи с тем, что для устранения проблем, которые вынуждают нас отключать Ваше оборудование, требуется достаточно времени, температурный режим в дата-центре на ул. Автозаводская, к сожалению, зависит от множества факторов, в том числе и от температуры окружающей среды, по нашим прогнозам отключение будет произведено сегодня (вторник), возможно завтра (среда).
На текущий момент ответить точно на Ваш вопрос не представляется возможным, в связи с тем, что для устранения проблем, которые вынуждают нас отключать Ваше оборудование, требуется достаточно времени, температурный режим в дата-центре на ул. Автозаводская, к сожалению, зависит от множества факторов, в том числе и от температуры окружающей среды, по нашим прогнозам отключение будет произведено сегодня (вторник), возможно завтра (среда).
Мда, хорошо что не стал доверять етим нашим хостерам и взял годедди. Траблов не было ни в жару ни в холод. Правда разок хакернули несколько серверов и сайт тормозил. Но зато знаешь что не нужно при наступлении лета гадать когда же в этот раз все рухнет. Деньги берут они бешенные а ответственности кроме письма в стиле "У нас проблемы, извените" никакой.
как инженер ) одного из московских ДЦ скажу, что такие траблы с охлаждением каждое лето и у всех, просто у кого-то это выливается в обострение, у кого-то менее болезненно протекает.
Оптимальный вариант не забивать все 40 юнитовую стойку от и до, тогда и при одном кондере (промышленном а не бытовом) есть шанс что оборудование дотянет до лучших времен просто при открытых задней и передней дверях
Оптимальный вариант не забивать все 40 юнитовую стойку от и до, тогда и при одном кондере (промышленном а не бытовом) есть шанс что оборудование дотянет до лучших времен просто при открытых задней и передней дверях
Второй кондик (или сколько их там нужно) принципиально не ставите? Лучше пусть клиенты траблы ловят?
так, на всякий случай, я не из мастерхоста :)
У нас стоят 5, и планируются ставить еще.
У нас стоят 5, и планируются ставить еще.
Вы так за все датацентры говорили, что я понял, что и у Вас те же проблемы в датацентре.
Если же у Вас все хорошо, то не подскажете ли, как стать клиентом вашего датацентра?
Если же у Вас все хорошо, то не подскажете ли, как стать клиентом вашего датацентра?
и у нас проблемы. В тех стойках, что полностью занимает один клиент (и забиты под завязку, как он этого пожелал) проблем больше, в свои мы ставим не более 22-23 машин,с зазором по пол юнита, так что даже при работающих двух кондерах, достаточно открыть дверцы.
А как у буржуинов получается, что в ряде датацентов годами таких проблем не происходит, не смотря на засухи, тайфуны и наводнения?
Мне показывали в Германии стойки с подводом воздуха от кондиционеров и отводом горячего воздуха, системы резервирования кондиционеров и питания. Особенно упирали на избыточность всех систем. Наверно так и надо строить датацентры?
Мне показывали в Германии стойки с подводом воздуха от кондиционеров и отводом горячего воздуха, системы резервирования кондиционеров и питания. Особенно упирали на избыточность всех систем. Наверно так и надо строить датацентры?
Что характерно, в инфобоксе, похоже, такие же проблемы... у меня сервер падает с периодичностью в 5 минут, до infobox.ru пинг идет с очень интерестными потерями:
Ping statistics for 85.249.134.34:
Packets: Sent = 110, Received = 21, Lost = 89 (80% loss),
Approximate round trip times in milli-seconds:
Minimum = 4ms, Maximum = 68ms, Average = 14ms
Мастерхост не может поченить винтиляторы вот уже несколько дней. Просто смешно.
а куда бежать из мастерхоста?
и вот опять
Sign up to leave a comment.
Masterhost опять лежит, но это никого не удивляет, привыкли.