Search
Write a publication
Pull to refresh

Comments 45

Кстати тоже над этим задумывался. А еще в голову пришла жутковатая идея… что если взять несколько разных хостингов и поставить какую-нить балансирующую программулину на еще одном хостинге. Вот как делают кластеризацию обычных серверов, только такой бюджетный вариант… Не разбирался с этой идеей еще, так что не знаю, бред это или может что-то получиться.
На счет дедика от Агавы спасибо — это для меня первая весточка, хотел туда переезжать от мастерхоста (считаю, что там цены не адекватные, хоть и за год проблем не было) — но теперь врядле. Где у нас еще колокейшн с хорошими условиями есть?

В пост призываются специалисты по кластеризации
а если у вас падает хостинг в котором балансер стоит? :)
Вот тут хороший колокейшен www.di-net.ru/. Всё работет, поддержка адекватная. Цены вполне соотвествуют качеству.
Благодарен конечно за ссылку, но мой пост не о хостерах. Проблемы могут быть у всех и форс мажора надо ожидать… Поэтому во первых я не виню сейчас Агаву (бывает) и задался вопросом как избежать таких «бывает».
«В датацентре были проблемы с температурой. Сервер выключился из-за перерегрева. Сейчас включен, доступен по сети». И при этом ни одного слова про «приносим извинения ...».

А Вам нужно было чтобы сервер заработал, или извинения? :)

Технология довольно проста, но дорогостояща. Не помню, как эта штука называется, но работат так:
а) сервер на основной хостинг
б) сервер на резервном хостинге
в) сервер в роли монитора

Сервер «в» следит за доступностью сервера «а» и занимается синхронизацией данных между серверами «а» и «б». Если сервер «а» падает, сервер «в» переписывает DNSки домена на сервер «б» и ждет пока сервер «а» поднимется. При этом сервер «а» и «б» меняются ролями :)
Спасибо за ответ.

А Вам нужно было чтобы сервер заработал, или извинения? :)
Мне бы хотелось чтобы я знал о том что такое может быть на данном дата центре.

Из предложенной схемы — То время которое будет занимать перезапись DNS я так понимаю сервер доступен не будет?
как вариант указывать в dns 2 сервера, это чем-то похоже на серьезную защиту от ддос атак(там делается куча фронтендов с одним сервером за ним, и каждая морда ip прописывается, в случае падения одних другие отвечают, в итоке какой-то процент запросов проходит).
Но когда серверов 2 и более начинаются проблемы с синхронизацией, если у вас сервера в основном на отдачу, тогда проблемы решаются достаточно просто: делается один сервер с сервисами in_out а второй только с out и переадресацией, если оба на in_out тогда надо балансировать нагрузку в зависимости от задач.

P.S. Стоит ли игра свеч и что дешевле — простой сервера 3-6 часов или аренда дополнительного сервера и игры с распределенкой решать вам.
Спасибо. Как раз сегодня размышлял в этом направлении. Вы первый кто явное направление этого решения предложил.
схема костыльная, но ничего не мешает иметь мизерный TTL в зоне — тогда переезд будет проходить за несколько секунд. Вопрос в том, как синхронизировать данные — имхо большой вопрос.
Я вижу это как «хот-стендбай», c репликой mysql-базы, при переключении репликация ломается (multi-master?) но продакшн-процесс продолжает жить.
Достаточно двух серверов, технологию heartbeat никто не отменял. Опять же переписывание DNS отрабатывает в лучшем случае за три часа. Если нет возможности использовать технологию типа ucarp, то можно использовать три сервера. Один простой и тупой (к примеру на Via Nano или чем-то подобном холодном) который работает балансером. В случае смерти одного из серверов он выключается из балансировки и все летит на одном сервере.
ucarp не решит проблему синхронности данных, как статики, так и mysql-баз, к примеру.
И не должен. Он для балансинга применяется. А уж как там будет остальное обеспечиваться это другое.
А кто следит сервером в роли монитора?)
Для того чтоб сайт был всегда — нужно 1 балансер и 2 или более хостингов
Балансер должен быть геокластерным
вопрос — что делать если падает балансер?
Нужно будет поднять его.
На работу основного хостинга это не скажется (балансер в другом дата-центре)
В дата центре все перегрелось и поднять балансер не представляется возможным в течении 12 часов — всё лежит 12 часов?
Балансер — геокластерный, живет в трех-четырех странах одновременно
«нужно 1 балансер» — для меня это звучало как — нужна одна тачка под балансер. Ну может я не прав.
Да не, это я просто гоню на своей волне и уверен что все знаю что такое геораспределенный балансер
а как вы себе представляете технологию геораспределенного баласнера на оборудовании хостера?
Россия — обширная страна. Можно возводить дэйтацентры на далёком Крайнем Севере. Там не перегреются.
Если бы так всё было просто, то давно бы все убежали из Москвы с её заоблачными ценами за аренду. Но в нашей обширной стране банально нет электричества. Поэтому все дата-центры в Москве кучкуются (ну и в Питере), это, фактически, единственное место с электричеством в стране. Даже в Подмосковье дата-центр трудно вынести.
Своим сообщением Вы переплюнули множество других хабрабредовых идей.
Погуглите. В Москве — около 75-80% дата-центров. В Петербурге — 10-15%. В «России» — около 10%. (Я имею ввиду доли рынка) Вы думаете так происходит от того, что все глупее вас?
Вы считаете, что основной причиной является именно нехватка электричества? :)
И не только я так считаю. Если чуть-чуть подумать, то не трудно в этом убедиться самому. Я написал про это чуть ниже. Дело даже не в нехватке электричества как такового. Его-то у нас завались. Нет инфраструктуры. Нет системы доставки электричества. Я говорю не об электричестве, достаточном для разжигания лампочки Ильича, а о хорошем Электричестве, на котором можно что-то делать.
С электричеством как раз проблем нет. В регионах, где было размещено мощное производство, строилась и мощная генерация. После развала производства потребление резко сократилось, выработанная электроэнергия не может быть в полном объёме передана в сети, а станции должны работать в режиме. Поэтому существуют регионы с копеечными тарифами на электроэнергию — как бы стимуляция потребления.

Проблема в отсутствии широкополосного интернет-доступа вне двух столиц и нескольких областных центров. 200–300 км от Москвы — здравствуй, дайлап.
Широкополосный доступ стоит на много дешевле, чем подвод электричества. Подумайте сами. Есть 1000 и 1 технология организации ШПД. Материалы не очень дороги (а часто просто не нужны, если передача через спутник). А вот электричество по оптоволокну не пробросишь. Надо либо строить ЛЭП (если далеко), либо класть провод с руку толщиной (если дело происходит уже после понижающей подстанции). Там одна только медь в копеечку выйдет. Конструкции. Монтаж…

Подумайте ещё и над такими цифрами. Средней руки дата-центр потребляет где-то 5МВт. А троллейбус (со стандартным двигателем 4 ELA 1660) потребляет 150кВт (при 1500 об/мин). Если вам захочется разместить дата-центр в небольшом городе типа Суздаля, то знайте, что энергопотребление города вырастет в разы! То есть существующие сети придётся сильно проапгрейдить. Их придётся потянуть как минимум из Владимира — 40 км. Посчитайте сколько это стоит. И сравните с ценой ШПД.
Если руководствоваться вышесказанным, что мешает развёртыванию дата-центров в областных центрах: Саратов, Новосибирск, Омск, Красноярск? Для таких городов 5МВт — слёзы. Аренда земель или даже готовых помещений в разы меньше, чем в столице. Специалистов на обслуживающий персонал с достойной квалификацией тоже хватает, а требования к ЗП меньше, чем у столичных коллег.
Почему же акулы бизнеса не кидаются сокращать свои расходы? А потому что единственный магистральный канал в моём Новосибирске контролируется Ростелеком (вот тут я могу ошибаться, но мне кажется, что дела обстоят именно так), который считает каждый бит, ни о каких точках обмена трафиком речь идти не может (всё таки основная масса интернет-потребителей находится за Уралом).
«за Уралом» — имеется в виду, конечно, европейская часть России.
Нуу, справедливости ради, надо сказать, что в Новосибирске и Красноярске кое-какие дата-центры есть. Про Саратовские и Омские дата-центры не слышал. Я бы сказал, что есть десяток городв с датацентрами. И всё.

А отвечая на ваш вопрос… во-первых 5МВт не такие уж слёзы. Лишних мегаватт ни у кого нет и, фактически, дата-центр можно открыть только вместо какого-нибудь промышленного предприятия. Обычно так и происходит — дата-центры организуют на территории бывших заводов, где уже есть хорошее промышленное электричество. Во-вторых, чтобы получить такую квоту энергии, в городе должен быть очень хороший запас. За последние пять мегаватт придётся заплатить очень большие взятки. (Впрочем, прокладка ШПД тоже упирается в землеотводы и взятки. Тут бюджеты откатов чиновникам примерно одинаковые.)
Могу добавить за Новосибирск: У нас есть помещение в собственности территориально расположенное на крупном заводе, проблема сейчас 1 кВт купить (конечно больше потому что это очень мелко), а если говорить о 5МВт, то примерная стоимость для Новосибирска такого удовольствия будет 5000 кВт * 30 т.р. = 150 000 000 рублей.
там замерзнут олени, крутящие генератор =)
Я бы на вашем месте прочел договор на этот Dedicated хостинг на предмет соблюдения технических условий, как то температура в помещении и электропитание. Возможно там указаны какие то параметры, которые они должны соблюдать. И в случае не соблюдения которых, должны нести ответственность…
Спасибо за ответ. Как я подозреваю если бы я не заметил «пропажи», то никогда об этом и не узнал. Договора у меня конечно же нет (в бумажной версии), так как заказывалось и оплачивалось Визой. Да и читать его смысла нет — раз были такие случаи значит прописано уже. И как часто у нас бывает (если ты не крупная компания за которой «охотяться» ) договор диктует сторона предоставляющая услугу: «Не согласен с договором — не пользуйся». Мой обычный ответ на фразу «Прочитайте внимательно договор и если со всем согласны подпишите.» — «А что Вы поменяете договор если я с чем-то не согласен ?»
Возможно, вам нужно сменить хостинг? У меня сервер ни разу не вис от перегрева или подобных причин.
Спасибо. Тем более что я им еще месяца не пользуюсь. Но никто я думаю не застрахован от подобных ситуаций. Собственно вопрос поста именно о «страховке»…
Ужас, что это за хостинг где сервера греются? Они у них что, в подвале с кондиционером стоят, а кондиционер сломался или залился водой от швабры уборщицы? А представляете, если в следующий раз на утро вам напишут «У нас были проблемы с температурой, подождите пожалуйста новый HDD и скиньте нам копию сайта». Бегите оттуда быстрее, мой вам совет.
UFO landed and left these words here
Всегда считал для начала «себя тупее других».
Такой вопрос уже задавался одному из известных хостеров (вроде на РИТ). Он сказал, что экономически не выгодно брать сервера, которые будут нормально работать при наших летних температурах. Я для себя сделал вывод — хостинг нужно брать в Германии. Там и цены хорошие, и конкурентов много, и отличные каналы. Я заметил, что до некоторых Российских операторов пинг больше чем до Германских!
а как насчет покупки сервера и его колокейшена. Мне постоянно попадаются предложения именно об аренде
Sign up to leave a comment.

Articles