Pull to refresh

Comments 167

UFO landed and left these words here
И на том спасибо. А мы все теряем и теряем бабло и доверие посетителей.
Около 04:00 MSD сегодня, 28.05.09, стал недоступен блок европейского датацентра мастерхост под кодовым названием EU2. Сервер проработал всего 5 дней с момента установки. Звонок ничего не прояснил, сказали, что срок решения вопроса не известен. Отличное начало знакомства с европейскими дедиками у МХ!!!
Как пользователь сервер которого не работает по 120 часов в месяц (!) - могу заверить, что мне совершенно все равно; тем более, что нет договоров ни с Рамблером, ни с поставщиками кондиционеров Рамблеру, ни с поставщиком железа Мастерхосту - только с Мастерхостом.
Именно за это ему, мастерхосту и платится - за все, оптом: за место в стойке, порт, электричество, администрирование - как раз, что б нельзя было кивать на то, что "это не наша зона ответственности".
Толку никакого..
UFO landed and left these words here
Найти приличный коллокейшн в москве не так уж и просто.
UFO landed and left these words here
да, я тоже удивляюсь, что перенести сотню сайтов, местами завязаных друг на друга и на внешние сервисы не так просто как домашнюю страничку
отлить новую машину, проконтролировать админа и разобраться что б там все жило - тоже требует времени
это несправедливо!

года этак с 2000 я время от времени переезжал от провайдера к провайдеру - сначала со своими машинами, теперь вот с арендованными - вы, видимо, нашли идеального хостера; всем этого желаю
UFO landed and left these words here
UFO landed and left these words here
Flector: Этот человек, кстати, сам решает кого нанять а кого уволить. Не нужно судить незнакомых людей по нескольким фразам. Поводу простоя в 120 часов, вопрос с переносом уже решен.
нда, давайте перейдем на личности)))
сначала - боюсь, не получилось бы меня нанять, ага :)
Ну что ж. Мы плодотворно поговорили. Предлагаю закрыть эту дискуссию до следущего ЧП ;)
тык.. если кондеи не починили - это уже скоро ;(
Держит нас там, например то, что много денег лежит. Это раз.
Второе: действительно надоели падения и изменения в условиях предоставления услуг (10 метров оперативы на исполнение пхп скрипта это вообще как? А ведь было 24)
Третье: методом проб и ошибок надоело искать достойный хостинг - хочется остановиться на чём-то одном. Сначала был мастерхост, потом они пожадничали, тепеть РБК.
Ну и последнее: а разве за баги отвечает не мастерхост? Если мы его клиенты - пусть исправляет, а не орёт, что рамблер виноват в падении Вашего сайта.
Кароче, скатился мастерхост с достойного второго места по качеству хостинга до сотого, или где-так.
Читал как прикол, а похоже, инжинер таки правду написал.
Просто когда это касается кого-то, это прикол или просто некая инфа от соратнега. А когда у тебя лично исчезает средство пополнения бюджета, при этом ты сам ничего не можешь сделать - видишь ситуацию по-другому ;)
Да Вы, может, не поняли, о чем я.

Я когда прочел про лед и солнцезащитные экраны, подумал - фантастика :))) В моё время достаточно было снять боковую крышку с корпуса и офисный вентилятор на проц направить :)))
:) там ети, стойки 19-дюймовые и толпы-толпы-толпы серверов в них
причем ладно арендованные - пускай вентиляторами и веерами охлаждают, но если бы кто полез с вентилятором в мою собственную машину по своей инициативе...
Господа, поправьте меня если неправ: краем уха слышал, что по тех-стандартам в дата-центре не должно быть окон.
UFO landed and left these words here
UFO landed and left these words here
;) если найдете сервер с боковой крышкой, выложите фотку
Уважаемый инжИнер. Вот уже 4 часа у меня в ауте 3 сервера на вашем хостинге, достучаться ни по телефону, ни по почте невозможно (по почте стандартный ответ про зону ответственности и т.п.).
Коли у вас есть время хабру читать, ответьте — когда же поднимите то? Приблизительно хотя бы.
я дозвонился (наш звонок 26 в очереди) - ничего путного сказать не могут ;(
Я в шоке, что у инженеров при этом есть время читать что-либо.
По телефону достучаться можно, только нужно повисеть на линии минут 15. Хотя наверно уже наверно больше, я думаю уже все вебмастера спохватились.

Мой сервак вырубался и перед 8 марта и перед 9 мая. Это была жесть так как на выходных Masterhost отдыхает. Админ у них есть но он как сказали "работает удаленно", то есть заменить винт или что-то еще не может. Выходной ведь. Надо отдыхать.
Это верно. А потом отвечает мальчик или девочка, что мол авария и когда починим не знаем. Ждите.. ;-)

Причем все это на фоне их 100-процентного повышения тарифов на колокейшн с 15 июня. Клиентов нахватали изрядно, а обслужить уже мощи нет.
На самом деле по прошлым "сбоям" у нас есть опыт общения и с начальниками отделов и извинения от технического директора и предложения компенсации деньгами.
То есть, пробиться сквозь сапорт можно (сапортеры, кстати, ни в чем не виноваты и получают по башке со всех сторон - и от нас и от начальства), но реальной пользы от этого нет ;-(
Верно. Саппорт — это первая линия обороны. ;-)

Тем не менее совпадение — стоило здесь начать обсуждение, и сервера включили ;-) Ну точно — через Хабру мониторят..
UFO landed and left these words here
а я то думал - чего башорг то лежит...
Только неудачник оправдывается и ищет причины, умный- учится и исправляет молча.
Гм. Я хотел вам как инженеру датацентра задать вопрос. У вас есть дублирующие системы? Или как обычно в россии сэкономили?
Слабо сделать нормальную инфраструктуру? Или лучше вот так геройствовать за счет клиентов?
спасибо за коммент в любом случае - но как попасть в нижнюю стойку? Это вроде авто номера 001?
А при чём тут вообще рамблер ? У человека договор с Мастерхостом, а не с рамблером !
мля как приятно то =) завтра еще жарче обещали =)
Подруга была на прошлых выходных в Москве (мы в Питере) - аццки жарко.
это точно. На улице вообще пекло
Сервера лежат? Ну так жара-то какая. Я вот тоже лежу, да.
Если каждый раз, когда ты приляжешь днем из твоего кошелька будут стабильно испаряться деньги... ;)
...то я покину фриланс и уйду в монастырь.
да, в монастырях обычно прохлаааадно...
эххх...
Я в нашу серверную хожу что бы охладиться... ))) Придешь, постоишь минут 5 - красота!
А я вот за день переезда из одной стойки в другую в датацентре простудился :(
Да просто каждый год лето приходит неожиданно.
Ага. А ещё у морозы приходят неожиданно — ну, когда вода трубы распирает. И так каждый год! :)
UFO landed and left these words here
рамблеру хорошо - работников у него значит больше ;)
Представил цепочку из 88 человек, передающих сухой лед от палатки с мороженым до серверной. Они делают это очень быстро потому что он сцуко жжет.
UFO landed and left these words here
да, взяли стопку листиков и машут.. машут.. машут)
Они вашими потерянными купюрами машут!
UFO landed and left these words here
Пора ставить ставки, господа, когда же включат сервера. Уважаемый инженер, вы, к сожалению, не можете принять участие ;)
UFO landed and left these words here
UFO landed and left these words here
Ещё как у Мастерхоста. Что в общем неудивительно)
UFO landed and left these words here
UFO landed and left these words here
UFO landed and left these words here
вечерело... поднимались серваки :)))))))))))
Солнце село?
А сам Рабмлер у кого работает (почта и другое?)
а почему вы (вебмастера, клиенты мастерхоста) не заведёте себе резервные серверы, где-нибудь на другой половине земного шара, в сша или канаде? я понимаю, что для работы они мало подходят (пинги там большие для москвы, для оплаты нужны реальные кредитки, а не вебмани, да и всё на английском), но учитывая копеечную стоимость североамериканского хостинга в сравнении с российским, как резерв - вполне сгодятся.
вы слабо представляете себе стоимость dedicated?
а некоторые здесь ещё и collocation пользуются — вы предлагаете купить приличные сервера, привезти их в Техас и использовать лишь для резерва, когда Мастерхост падает?
10 евро в месяц - разве это много для резервного сервера? я не говорю про серверы для игр, я про резервный virtual dedicated server под обычные сайты типа хабры, форумы и т.п.
ну это ваш бизнес, вам решать :)

а тем временем masterhost вроде ожил, зато mail.ru теперь в дауне...
на счёт mail.ru
полчаса назад ещё почту можно было прочитать тут: pda.mail.ru, а сейчас иногда тока майлагент о спаме попискивает.

серваки поднялись.. а вот сайт webplanet.ru пока работу не востановил
mail.ru заработал, ага. но пару часо его не было
Похоже вы никогда не пользовались vds. По моему это пустая трата денег, поскольку они не воспроизводят и сотой доли производительности реального dedicated. Самая большая проблема НЕ в дублировании на переключение между серверами, как некоторые думают, а в репликации данных (ведь актуальность данных в социальном проекте как нигде велика) — может так получиться, что синхронизация серверов обойдётся в несколько раз дороже хостинга. В такой ситуации может оказаться дешевле хоститься в европейских ДЦ монстров типа Level3 (и пинг до Москвы там не настолько плох, как кажется).
ок, вы меня убедили. сихронизация действительно может отнять много ресурсов.
я действительно не пользовался vds. Для личных нужд у меня хостинг на godaddy, для работы локальный сервер на лэптопе (oracle xe + apache), один сервер под столом и один в дата-центре клиента во Франкфурте.
Можно поподробнее про датачент во Франкфурте? Условия, пинг из Мск?
честно, не знаю, какой пинг из Москвы, хотя там есть локальное представительство, которое будет работать с нашей софтиной. сервер предоставлен клиентом, для меня он в локальной сети, пинг до 15ms
Уважаемый а теперь поясните как вы оперативно в течении хотя бы 10 минут переключите обслуживание между серверами? Учитываем что ip адреса разные и находятся в разных автономных зонах.
1. dns roundrobin (для уников)
2. ICMP route changed (не очень действенно)
3. тоннель с помощью провайдерского cisco, если он не погорел вместе с серверами.
1. Должны работать оба сервера. И замечу что часть пользователей будет попадать на лежащий в данный момент сервер.
2. а кто его будет обеспечивать? Сервер то тютю.
3. Кто будет поднимать и кто будет обеспечивать своевременное поднятие?

PS На данный момент это можно организовать только при помощи железяки-посредника (load balancer) которая будет в случае падения узла автоматически перенаправлять все запросы на второй сайт.
1. BIND9 позволяет периодически пинговать сервера и исходя из этого раскидывать roundrobin. Это решение самое дешевое, но требует ТРЕТЬЕГО сервера под DNS. впрочем с этим может справиться и cisco.
2. Маршрутизатор конечно, причём в автоматическом режиме. Но сам способ давно малоэффективен — большинство сетей фильтрует ICMP пропуская только ping
3. Хороший провайдер может. Вопрос лишь в том, кто хороший провайдер.

Да всем этим должна заниматься нормальная железяка, и у провайдеров есть такие. Другое дело, что нет ни практики ни востребованности в такой работе (зачем им кормить конкурента?)
Проблема не столько в DNS сколько в репликации данных.
все приведенные вами решения требуют не двух а трех серверов :) В первом случае четырех :)
Указанные решения требуют лишь использования существующего коммуникационного оборудования (тех же штатных маршрутизаторов ДЦ) по прямому назначению. Если вы считаете, что маршрутизаторы CISCO стоят от $5k (а хорошие балансеры от $20k) только для того, чтобы сливать данные из ДЦ в разные каналы связи, то вы сильно недооцениваете их возможности и предназначение.
Сколько стоят маршрутизаторы я в курсе. Вопрос больше в том предоставит ли эти услуги хостер или прийдется ставить дополнительную железку.
Вот вы и пришли к тому, что я написал 5ю постами выше.
Я про это еще выше говорил :) То что двумя серверами без третьей железки это сделать не удастся.
Вы не поняли акцента — эта третья железка в нормальной ситуации не должна покупаться/арендоваться владельцем вебсервера — распределение маршрутов это работа хостера.
Это официальная рекомендация клиентам компании Мастерхост?
UFO landed and left these words here
кластеры-шмастеры, ну зачем всё усложнять? сервер в мастерхосте отключили - пользователь перенаправляется на резервный сервер где-нибудь в Канаде. Синхронизировать, по сути, ничего и не придётся, нужно будешь лишь переписать новую базу поверх старой. Если оба сервера в сети - работает основной. Обновления базы дублируются с основного на резервный. Если связи между серверами нет - работает резервный. Если связь восстановилась - пять минут на копирование базы с резервного на основной.
Ну и третий сервер DNS для разруливания трафика.
Даже самому интересно стало, надо попробовать реализовать у себя :)
UFO landed and left these words here
Еще раз повторяю. 2 сегмента. Работают оба. Если связь между ними есть, то юзеры просто не попадают на резервный сервер, их направляют на основной. Если же нарушена связность сети, то не работает основной сервер, юзеры идут на резервный. Поверх - имелось ввиду именно поверх, как файл. Упрощённая схема, именно на случай "сгорания винта", когда для восстановления работоспособности нужно длительное время.
А вообще, если писать сразу распределённый форум, то проблем быть не должно, айди у каждого сервера свой, отличающийся от остальных. Интересная идея, спасибо, на досуге покопаюсь, скорее всего, уже давно реализовано до нас.
UFO landed and left these words here
Главное, какой из них работает для load balancer.
Если реализовывать репликацию средствами БД, то ничего с готовым движком форума делать не нужно. Другое дело, что не все БД подходят на эту роль и связь между ДЦ должна быть хорошей. в какой-то момент роста вам в любом случае прийдётся думать над масштабированием и тогда в любом случае прийдётся писать схемы с разделением БД на куски (Oracle например умеет делить между серверами даже индивидуальную таблицу) и фронт-энд серверов (на которых находится движок)
UFO landed and left these words here
Вам не кажется, что углубляться в детали репликации в этом топике излишне?
UFO landed and left these words here
Я лишь говорил о принципиальной возможности, стараясь не углубляться в тонкости реализации репликаций и кластеризации. Message был в том, что "это решаемо и называется 'репликация БД'". По идее этой информации достаточно для того, чтобы иметь в виду такую возможность в случае необходимости. Я углубился не более чем посмотреть профиль Vitaly — ровно до уровня организации процесса.

Давайте закроем этот вопрос?
Вы героически не хотите видеть написанное :)
На мой взгляд посмотреть профиль Vitaly всё понял правильно, но ответил вам результат следующего шага размышлений и потому вы за ним не угнались. Он совершенно прав насчёт АКТУАЛЬНОСТИ данных на резервном сервере — ваш способ может угробить сам социальный сервис, если зайдя на резервный сервер пользователи не увиядт там ВСЕ свои сообщения и обсуждения. А сам по себе ваш способ не гарантирует такую целостность баз, да ещё и вынуждает простаивать дорогостоящее оборудование.
Да, идея сложная в реализации, но вполне реализуемая средствами репликации БД, хотя воплощать её имеет смысл только когда на карту поставлены действительно большие деньги. Посмотрите на досуге как из этой ситуации выкрутился Google. В меньших масштабах нужно лишь использовать механизмы встроенной репликации БД (даже в MySQL недовно появилось что-то), что позволит синхронизировать сообщения на двух копиях форума в реальном времени, возможно даже без потери даже одного сообщения в момент падения ДЦ. Ещё проще выбрать качественный иностранный хостинг, если российский настолько слаб, что считает нормальным экономить на кондиционировании.
Форум только копит данные, что там сложного в синхронизации?

P.S. Я в технических деталях не понимаю.
UFO landed and left these words here
Случайное число тоже не гарантирует уникальности идентификатора. Лучше не надо здесь про уникальные идентификаторы.

Но юному вебмастеру как раз и предначертано попариться, прежде чем осознает он, что автоинкремент для PK - зло :)
When multiple servers are configured as replication masters, special steps must be taken to prevent key collisions when using AUTO_INCREMENT columns, otherwise multiple masters may attempt to use the same AUTO_INCREMENT value when inserting rows.

The auto_increment_increment and auto_increment_offset system variables help to accommodate multiple-master replication with AUTO_INCREMENT columns. Each of these variables has a default and minimum value of 1, and a maximum value of 65,535. They were introduced in MySQL 5.0.2.

Кстати о птичках
UFO landed and left these words here
Предлагаю сойтись на том, что кластерные решения или решения с репликацией надо проектировать до того, как стойка перегреется.
UFO landed and left these words here
Плохо когда такие ситуации случаются, но хуже когда их не комментируют и не решают в быстром порядке...
А зачем вообще Вы хоститесь в мастерхосте? гнилая контора, которую давить надо. Отказы оборудования в масетрхосте давно уже норма, в техподдержку не дозвониться, на почту не отвечают.
"Ежики кололись, но продолжали жрать кактус" (с)
Лично я ушёл не из-за качества — они работают ничем не хуже godaddy.
Думаю в любой большой хостерской конторе случаются и проблемы и казусы с сапортом.
Дело не в казусах с саппортом, дело в том, что у людей инфраструктура не рассчитана на их аппетиты. Проще говоря, они берут бабло за услугу, которую принципиально не могут оказать качественно. И им не это насрать.
Мы с вами похоже работали с разными Мастерхостами =)
У меня остались хорошие воспоминания об их сервисе, впрочем не исключено, что именно потому, что на моей памяти таких инцидентов не было и они не смогли проявиться со столь плохой стороны.

В любом случае проблема кондиционирования лежит на хостере, и если эту падлянку устроил им хозяин датацентра, то пусть выставляют им иски по совокупности потерь клиентов, но снимать ответственность с себя они ИМХО не должны.
вывел формулу мастерхоста и Гены Букина - 'стабильно два раза в год'.
Да, от неприятностей никто не застрахован. Но такое отношение к клиентам - непростительно.
Вроде серьезная контора.

Отмазываться зоной ответсвтенности - очень странно. Как деньги брать, то все путем.
Нам сегодня пришло такое же письмо. Но сервер продолжает корректно работать. На всякий случай забэкапились.
Крику много, толку мало.

Выдержка из договора Мастерхоста.

4.5. Оператор, ни при каких обстоятельствах не несет ответственности перед Абонентом за косвенные убытки. Понятие «косвенные убытки» включает, но не ограничивается, потерю дохода, прибыли, ожидаемой экономии, деловой активности или репутации. Оператор несет ответственность за документально подтвержденный реальный ущерб. Предельный размер ответственности за реальный ущерб в любом случае не может превышать 5600 рублей (200 у.е.) за каждый случай нанесение ущерба. Действие данного пункта не распространяется на Абонентов – физических лиц.


И так везде. Вы, наверно, в сказке живёте.
Я поднял тему отношения компании к клиенту. Вопрос компенсации тоже интересен, мне, например потребовалось много времени, чтобы хотя бы привлечь внимание менеджеров к этому вопросу и получить ответ, что они рассмотрят жалобу в течение 60 дней. Мне это не актуально так как я нашел другого хостера.

А особенности компании таковы:
- Если железо на вашем сервере сломалось в пятницу, задумаются о решении проблемы не раньше понедельника.
- Если ваш сервер сломался, вам потребуется сделать несколько звонков, чтобы хоть что-то начали делать (если это не пятница вечер или выходной) и еще раз позвонить и убедиться, что действительно начали.
- Вам вряд ли удастся поговорить с кем-то дальше мальчика саппортера, который будет говорить стандартные фразы и вешать вам лапшу на уши.
- Данные могут пропасть, вам накатят старый бэкап, вам скажут "вы сами запускали скрипт", винты будут лететь одновременно снова и снова, вам скажут "это уникальный случай" ;)))
- Цены вверх, качество вниз.
Пункт первый не согласуется со вторым и третьим пунктами. Ибо:
- если вы так точно знаете, когда задумаются о решении проблемы, то у вас точно есть возможность обойти саппорт и выйти на людей, принимающих решения. :)

Про 60 дней - это нормальная страховка от форсмажора, неужели вы в своём бизнесе не страхуетесь? Ваш ответ рассматривали в течении 60 дней?

Про мальчиков с лапшой я по собственному опыту знаю, что это не так. Поставьте разговор правильно, с вами будут говорить на другом языке. Или найдите другого "мальчика".

Про бэкап на винте своей машины никак не буду оспаривать - не сталкивался, не знаю.

А что за новый хостер? Интересно.
Если каждый случай это хост потенциально клиента? Заказ на 2000$
у нас договор на физлицо - из этого есть как плюсы так и минусы, если бы было желание судиться
главные плюсы: нормы фзозпп (в частности, в лесу я видел этот пункт), подсудность по нашему выбору, а не в Москве
плохо то, что мне вот непонятно, как из такого иска намутить сколько-нибудь заметное кол-во денюх

впрочем, фик с ними; судиться не будем - хочу верить, что это обсуждение уже обошлось мегапровайдеру дороже.. то ли еще будет
Как инженер да по совместительству тех суппорт всегда поражаюсь таким вот крикам. Ах лёг Gmail, Ах мастерхост лежит. Проблемы бывают у всех! И проблемы с зонами ответственности бывают у всех. Мне это напоминает сегодняшнюю сцену на работе. Зовет меня главбух и жалуется дескать ей нужно почту ОЧЕНЬ срочно отправить, а у нее "не работает". Пришел смотрю, да рамблер лежит и тихо извиняется об этом. Дескать работы ведутся. Вот тётя начала орать на меня что ей срочно и именно с её ящика. Кроме как развести руками и объяснить про зоны ответственности ничего не остается. Это нормально. И далеко не любую проблему можно решить моментально.
Проблему нужно решать, пока она еще не наступила. Заранее то есть.
Не возможно решить все проблемы заранее.
UFO landed and left these words here
Именно, но оградить себя от всего никогда не выйдет.
UFO landed and left these words here
условия кондиционирования предсказуемы как и отключение питания, так что не нужно делать из этого форс-мажор.
У Вас был целый год на решение известной с прошлого лета проблемы...
У кого и какую проблему? Я вообще админ в крупном ресторане.
не у вас - прошлым летом у этого же провайдера были проблеммы из-за жары
Вот для этого и существуют техусловия в которые входят техсредства по поддержанию температуры.
Тоже самое было, вбил работающий smtp и проблема была решена..

Тратьте на обсуждение проблемы 10% времени а 90% на ее решение..

Может флешмоб проведем - подвоз сухого льда к датацентру?
согласен, пусть компенсируется деньгами. Было дело - мастерхост зачислял по n денег. Пусть и сейчас так.
Вопрос не в разграничении прав, а в недальновидности менеджеров. Думаете, что и до и после первого случая к ним инженеры не приходили и не говорили, что необходима дублирующая система? Да приходили и говорили. Толку только мало. По этому я товарищу с мастерхоста и задал вопрос про дублирующую систему.
Про зоны ответственности:
1. Ваш главбух может смело подавать в суд на Рамблер (если не читала их лицензию). К вам претензий быть не может — вы не гарантировали ей условия доступности почты. А хостер в свою очередь гарантирует условия эксплуатации серверов.
2. Когда вы заключаете договор о collocation разве вы не оговариваете требование соблюдения нормативных условий эксплуатации вашего сервера от хостера? Если требуете, то можете подавать на них в суд за каждое превышение температуры (термодатчики у всех серверов есть?) и компенсаций недополученной прибыли в случае отключения оборудования из-за жары. В договоре должно чётко описываться необходимость предварительного согласования каждого эпизода остановки сервиса для минимизации потерь и только в таком случае отказ от судебного преследования.

Если кто-то попытается списать недостаток кондиционирования на форс-мажор, то в суде у него ничего не получится — нормативы охлаждения и спецификации оборудования не сойдутся, что докажет вину датацентра и отсутствие условий непреодолимой силы. В худшем случае в суде будет доказана непригодность помещения для такого рода деятельности и ДЦ вобще вылетит на улицу.
Я не понимаю как такое вообще может быть. Любая аппаратура в дата центре должна присутствовать как минимум 2 раза. По крайней мере в одном немецком дата центре, где находятся мои серверы так есть. Если например кондиционер ломается (чего ВСЕГДА стоит ожидать), то всегда должна предоставляется возможность активировать запасной кондиционер.

Ну а по поводу цен я вообще молчу. Вас там просто обманывают.
пинг в 6ms дорого стоит =)
из Европы в Москву такой не обеспечишь.
А сколько стоит отказ обслуживания на несколько часов?
Не надо пытаться меня переубеждать — я давно съехал с московских и питерских серверов.
это 100% проблема мастерхоста и их жадности в отношении системы жизнеобеспечения ДЦ.
ситуация повторяется 3й раз. при чем последний раз был месяцев 9 назад и могли бы за зиму подготовится к новому сезону.
мы не в африке живем, чтобы сваливать проблему на жаркую погоду. в силиконовой долине все работает окей.

тем кто кричит про переход на другие хосты хочется задать простой вопрос - а какие? в россии нет действительно качественных хостеров. к счастью у мастера проблемы только с кондиционированием. агавы, инфобоксы и тд - совсем не годятся для серьезных проектов и отношение к серверам более халатное.
вот вот, найти приличный коллокейшн в москве не так уж и просто. Корбина хороша, но у них проблемы с питанием. новых не принимают ;(
Угу. Мастерхост, как демократия - не идеален, но ничего лучше пока нет :)
на мой взгялд, мастерхост один из лидеров, предоставляющий
хостинг. не раз хотел попробывать с ним поработать, но не
удалось.
теперь я в растерянности. ну кого на вскитку можно назвать
лидерами хостинг компаниями? скажем, голден телеком. а он,
помню, в свою очередь тоже прекращал работу где-то летом на
часов 6. 6ч. за год казалось бы мало, но ем не менее, если
у тебя посещаемость сайта более 5тыс. до половина из них не
просто скажут "вот казлы, не работают..((", одним словом сайт
в их глазах опустится.
кому доверять прост не знаю.
сам сижу на рбк хосте. тьфу-тьфу, никогда неожиданных выключений
не было, хотя я мог спокойно пропустить. помню только раз, за
неделю, они предупредили о выключении серваков на час. ну лан,
подумал я, это ещё куда не шло.
меня вот что поражает больше всего.
все в курсе, что мастерхост — гуано в общем и целом. и пользоваться им не рекомендуется.
тем не менее, активно пользуются, а затем еще активней визжат по поводу подхода к клиентам.
странно мне это.
webplanet.ru среди этих "счастливчиков"?

зы. буквально неделю назад хотел к мастерхосту съехать) Хорошо что остался у Мажордомо.
такой вот ответ Мастерхоста:

Температурный режим в дата-центре на ул. Автозаводская, к сожалению, по предварительным прогнозам, завтра (во вторник) также не будет штатным. Все связанные с этой ситуацией вопросы решаются на уровне руководства и держатся под постоянным контролем.
И еще:

На текущий момент ответить точно на Ваш вопрос не представляется возможным, в связи с тем, что для устранения проблем, которые вынуждают нас отключать Ваше оборудование, требуется достаточно времени, температурный режим в дата-центре на ул. Автозаводская, к сожалению, зависит от множества факторов, в том числе и от температуры окружающей среды, по нашим прогнозам отключение будет произведено сегодня (вторник), возможно завтра (среда).
Мда, хорошо что не стал доверять етим нашим хостерам и взял годедди. Траблов не было ни в жару ни в холод. Правда разок хакернули несколько серверов и сайт тормозил. Но зато знаешь что не нужно при наступлении лета гадать когда же в этот раз все рухнет. Деньги берут они бешенные а ответственности кроме письма в стиле "У нас проблемы, извените" никакой.
как инженер ) одного из московских ДЦ скажу, что такие траблы с охлаждением каждое лето и у всех, просто у кого-то это выливается в обострение, у кого-то менее болезненно протекает.
Оптимальный вариант — не забивать все 40 юнитовую стойку от и до, тогда и при одном кондере (промышленном а не бытовом) есть шанс что оборудование дотянет до лучших времен просто при открытых задней и передней дверях
Второй кондик (или сколько их там нужно) принципиально не ставите? Лучше пусть клиенты траблы ловят?
так, на всякий случай, я не из мастерхоста :)
У нас стоят 5, и планируются ставить еще.
Вы так за все датацентры говорили, что я понял, что и у Вас те же проблемы в датацентре.
Если же у Вас все хорошо, то не подскажете ли, как стать клиентом вашего датацентра?
и у нас проблемы. В тех стойках, что полностью занимает один клиент (и забиты под завязку, как он этого пожелал) проблем больше, в свои мы ставим не более 22-23 машин,с зазором по пол юнита, так что даже при работающих двух кондерах, достаточно открыть дверцы.
А как у буржуинов получается, что в ряде датацентов годами таких проблем не происходит, не смотря на засухи, тайфуны и наводнения?
Мне показывали в Германии стойки с подводом воздуха от кондиционеров и отводом горячего воздуха, системы резервирования кондиционеров и питания. Особенно упирали на избыточность всех систем. Наверно так и надо строить датацентры?
Абсолютно согласен с вами.
Но ни я, и ни один человек из нашей компании дата-центр этот не строили.
Что характерно, в инфобоксе, похоже, такие же проблемы... у меня сервер падает с периодичностью в 5 минут, до infobox.ru пинг идет с очень интерестными потерями:

Ping statistics for 85.249.134.34:
Packets: Sent = 110, Received = 21, Lost = 89 (80% loss),
Approximate round trip times in milli-seconds:
Minimum = 4ms, Maximum = 68ms, Average = 14ms
Мастерхост не может поченить винтиляторы вот уже несколько дней. Просто смешно.
Sign up to leave a comment.

Articles