Comments 45
Кстати тоже над этим задумывался. А еще в голову пришла жутковатая идея… что если взять несколько разных хостингов и поставить какую-нить балансирующую программулину на еще одном хостинге. Вот как делают кластеризацию обычных серверов, только такой бюджетный вариант… Не разбирался с этой идеей еще, так что не знаю, бред это или может что-то получиться.
На счет дедика от Агавы спасибо — это для меня первая весточка, хотел туда переезжать от мастерхоста (считаю, что там цены не адекватные, хоть и за год проблем не было) — но теперь врядле. Где у нас еще колокейшн с хорошими условиями есть?
В пост призываются специалисты по кластеризации
На счет дедика от Агавы спасибо — это для меня первая весточка, хотел туда переезжать от мастерхоста (считаю, что там цены не адекватные, хоть и за год проблем не было) — но теперь врядле. Где у нас еще колокейшн с хорошими условиями есть?
В пост призываются специалисты по кластеризации
а если у вас падает хостинг в котором балансер стоит? :)
Вот тут хороший колокейшен www.di-net.ru/. Всё работет, поддержка адекватная. Цены вполне соотвествуют качеству.
«В датацентре были проблемы с температурой. Сервер выключился из-за перерегрева. Сейчас включен, доступен по сети». И при этом ни одного слова про «приносим извинения ...».
А Вам нужно было чтобы сервер заработал, или извинения? :)
Технология довольно проста, но дорогостояща. Не помню, как эта штука называется, но работат так:
а) сервер на основной хостинг
б) сервер на резервном хостинге
в) сервер в роли монитора
Сервер «в» следит за доступностью сервера «а» и занимается синхронизацией данных между серверами «а» и «б». Если сервер «а» падает, сервер «в» переписывает DNSки домена на сервер «б» и ждет пока сервер «а» поднимется. При этом сервер «а» и «б» меняются ролями :)
А Вам нужно было чтобы сервер заработал, или извинения? :)
Технология довольно проста, но дорогостояща. Не помню, как эта штука называется, но работат так:
а) сервер на основной хостинг
б) сервер на резервном хостинге
в) сервер в роли монитора
Сервер «в» следит за доступностью сервера «а» и занимается синхронизацией данных между серверами «а» и «б». Если сервер «а» падает, сервер «в» переписывает DNSки домена на сервер «б» и ждет пока сервер «а» поднимется. При этом сервер «а» и «б» меняются ролями :)
Спасибо за ответ.
А Вам нужно было чтобы сервер заработал, или извинения? :)
Мне бы хотелось чтобы я знал о том что такое может быть на данном дата центре.
Из предложенной схемы — То время которое будет занимать перезапись DNS я так понимаю сервер доступен не будет?
А Вам нужно было чтобы сервер заработал, или извинения? :)
Мне бы хотелось чтобы я знал о том что такое может быть на данном дата центре.
Из предложенной схемы — То время которое будет занимать перезапись DNS я так понимаю сервер доступен не будет?
как вариант указывать в dns 2 сервера, это чем-то похоже на серьезную защиту от ддос атак(там делается куча фронтендов с одним сервером за ним, и каждая морда ip прописывается, в случае падения одних другие отвечают, в итоке какой-то процент запросов проходит).
Но когда серверов 2 и более начинаются проблемы с синхронизацией, если у вас сервера в основном на отдачу, тогда проблемы решаются достаточно просто: делается один сервер с сервисами in_out а второй только с out и переадресацией, если оба на in_out тогда надо балансировать нагрузку в зависимости от задач.
P.S. Стоит ли игра свеч и что дешевле — простой сервера 3-6 часов или аренда дополнительного сервера и игры с распределенкой решать вам.
Но когда серверов 2 и более начинаются проблемы с синхронизацией, если у вас сервера в основном на отдачу, тогда проблемы решаются достаточно просто: делается один сервер с сервисами in_out а второй только с out и переадресацией, если оба на in_out тогда надо балансировать нагрузку в зависимости от задач.
P.S. Стоит ли игра свеч и что дешевле — простой сервера 3-6 часов или аренда дополнительного сервера и игры с распределенкой решать вам.
схема костыльная, но ничего не мешает иметь мизерный TTL в зоне — тогда переезд будет проходить за несколько секунд. Вопрос в том, как синхронизировать данные — имхо большой вопрос.
Я вижу это как «хот-стендбай», c репликой mysql-базы, при переключении репликация ломается (multi-master?) но продакшн-процесс продолжает жить.
Я вижу это как «хот-стендбай», c репликой mysql-базы, при переключении репликация ломается (multi-master?) но продакшн-процесс продолжает жить.
Достаточно двух серверов, технологию heartbeat никто не отменял. Опять же переписывание DNS отрабатывает в лучшем случае за три часа. Если нет возможности использовать технологию типа ucarp, то можно использовать три сервера. Один простой и тупой (к примеру на Via Nano или чем-то подобном холодном) который работает балансером. В случае смерти одного из серверов он выключается из балансировки и все летит на одном сервере.
А кто следит сервером в роли монитора?)
Для того чтоб сайт был всегда — нужно 1 балансер и 2 или более хостингов
Балансер должен быть геокластерным
Балансер должен быть геокластерным
вопрос — что делать если падает балансер?
Нужно будет поднять его.
На работу основного хостинга это не скажется (балансер в другом дата-центре)
На работу основного хостинга это не скажется (балансер в другом дата-центре)
Балансер — геокластерный, живет в трех-четырех странах одновременно
Россия — обширная страна. Можно возводить дэйтацентры на далёком Крайнем Севере. Там не перегреются.
Если бы так всё было просто, то давно бы все убежали из Москвы с её заоблачными ценами за аренду. Но в нашей обширной стране банально нет электричества. Поэтому все дата-центры в Москве кучкуются (ну и в Питере), это, фактически, единственное место с электричеством в стране. Даже в Подмосковье дата-центр трудно вынести.
Своим сообщением Вы переплюнули множество других хабрабредовых идей.
Погуглите. В Москве — около 75-80% дата-центров. В Петербурге — 10-15%. В «России» — около 10%. (Я имею ввиду доли рынка) Вы думаете так происходит от того, что все глупее вас?
Вы считаете, что основной причиной является именно нехватка электричества? :)
И не только я так считаю. Если чуть-чуть подумать, то не трудно в этом убедиться самому. Я написал про это чуть ниже. Дело даже не в нехватке электричества как такового. Его-то у нас завались. Нет инфраструктуры. Нет системы доставки электричества. Я говорю не об электричестве, достаточном для разжигания лампочки Ильича, а о хорошем Электричестве, на котором можно что-то делать.
С электричеством как раз проблем нет. В регионах, где было размещено мощное производство, строилась и мощная генерация. После развала производства потребление резко сократилось, выработанная электроэнергия не может быть в полном объёме передана в сети, а станции должны работать в режиме. Поэтому существуют регионы с копеечными тарифами на электроэнергию — как бы стимуляция потребления.
Проблема в отсутствии широкополосного интернет-доступа вне двух столиц и нескольких областных центров. 200–300 км от Москвы — здравствуй, дайлап.
Проблема в отсутствии широкополосного интернет-доступа вне двух столиц и нескольких областных центров. 200–300 км от Москвы — здравствуй, дайлап.
Широкополосный доступ стоит на много дешевле, чем подвод электричества. Подумайте сами. Есть 1000 и 1 технология организации ШПД. Материалы не очень дороги (а часто просто не нужны, если передача через спутник). А вот электричество по оптоволокну не пробросишь. Надо либо строить ЛЭП (если далеко), либо класть провод с руку толщиной (если дело происходит уже после понижающей подстанции). Там одна только медь в копеечку выйдет. Конструкции. Монтаж…
Подумайте ещё и над такими цифрами. Средней руки дата-центр потребляет где-то 5МВт. А троллейбус (со стандартным двигателем 4 ELA 1660) потребляет 150кВт (при 1500 об/мин). Если вам захочется разместить дата-центр в небольшом городе типа Суздаля, то знайте, что энергопотребление города вырастет в разы! То есть существующие сети придётся сильно проапгрейдить. Их придётся потянуть как минимум из Владимира — 40 км. Посчитайте сколько это стоит. И сравните с ценой ШПД.
Подумайте ещё и над такими цифрами. Средней руки дата-центр потребляет где-то 5МВт. А троллейбус (со стандартным двигателем 4 ELA 1660) потребляет 150кВт (при 1500 об/мин). Если вам захочется разместить дата-центр в небольшом городе типа Суздаля, то знайте, что энергопотребление города вырастет в разы! То есть существующие сети придётся сильно проапгрейдить. Их придётся потянуть как минимум из Владимира — 40 км. Посчитайте сколько это стоит. И сравните с ценой ШПД.
Если руководствоваться вышесказанным, что мешает развёртыванию дата-центров в областных центрах: Саратов, Новосибирск, Омск, Красноярск? Для таких городов 5МВт — слёзы. Аренда земель или даже готовых помещений в разы меньше, чем в столице. Специалистов на обслуживающий персонал с достойной квалификацией тоже хватает, а требования к ЗП меньше, чем у столичных коллег.
Почему же акулы бизнеса не кидаются сокращать свои расходы? А потому что единственный магистральный канал в моём Новосибирске контролируется Ростелеком (вот тут я могу ошибаться, но мне кажется, что дела обстоят именно так), который считает каждый бит, ни о каких точках обмена трафиком речь идти не может (всё таки основная масса интернет-потребителей находится за Уралом).
Почему же акулы бизнеса не кидаются сокращать свои расходы? А потому что единственный магистральный канал в моём Новосибирске контролируется Ростелеком (вот тут я могу ошибаться, но мне кажется, что дела обстоят именно так), который считает каждый бит, ни о каких точках обмена трафиком речь идти не может (всё таки основная масса интернет-потребителей находится за Уралом).
«за Уралом» — имеется в виду, конечно, европейская часть России.
Нуу, справедливости ради, надо сказать, что в Новосибирске и Красноярске кое-какие дата-центры есть. Про Саратовские и Омские дата-центры не слышал. Я бы сказал, что есть десяток городв с датацентрами. И всё.
А отвечая на ваш вопрос… во-первых 5МВт не такие уж слёзы. Лишних мегаватт ни у кого нет и, фактически, дата-центр можно открыть только вместо какого-нибудь промышленного предприятия. Обычно так и происходит — дата-центры организуют на территории бывших заводов, где уже есть хорошее промышленное электричество. Во-вторых, чтобы получить такую квоту энергии, в городе должен быть очень хороший запас. За последние пять мегаватт придётся заплатить очень большие взятки. (Впрочем, прокладка ШПД тоже упирается в землеотводы и взятки. Тут бюджеты откатов чиновникам примерно одинаковые.)
А отвечая на ваш вопрос… во-первых 5МВт не такие уж слёзы. Лишних мегаватт ни у кого нет и, фактически, дата-центр можно открыть только вместо какого-нибудь промышленного предприятия. Обычно так и происходит — дата-центры организуют на территории бывших заводов, где уже есть хорошее промышленное электричество. Во-вторых, чтобы получить такую квоту энергии, в городе должен быть очень хороший запас. За последние пять мегаватт придётся заплатить очень большие взятки. (Впрочем, прокладка ШПД тоже упирается в землеотводы и взятки. Тут бюджеты откатов чиновникам примерно одинаковые.)
Могу добавить за Новосибирск: У нас есть помещение в собственности территориально расположенное на крупном заводе, проблема сейчас 1 кВт купить (конечно больше потому что это очень мелко), а если говорить о 5МВт, то примерная стоимость для Новосибирска такого удовольствия будет 5000 кВт * 30 т.р. = 150 000 000 рублей.
там замерзнут олени, крутящие генератор =)
Я бы на вашем месте прочел договор на этот Dedicated хостинг на предмет соблюдения технических условий, как то температура в помещении и электропитание. Возможно там указаны какие то параметры, которые они должны соблюдать. И в случае не соблюдения которых, должны нести ответственность…
Спасибо за ответ. Как я подозреваю если бы я не заметил «пропажи», то никогда об этом и не узнал. Договора у меня конечно же нет (в бумажной версии), так как заказывалось и оплачивалось Визой. Да и читать его смысла нет — раз были такие случаи значит прописано уже. И как часто у нас бывает (если ты не крупная компания за которой «охотяться» ) договор диктует сторона предоставляющая услугу: «Не согласен с договором — не пользуйся». Мой обычный ответ на фразу «Прочитайте внимательно договор и если со всем согласны подпишите.» — «А что Вы поменяете договор если я с чем-то не согласен ?»
Возможно, вам нужно сменить хостинг? У меня сервер ни разу не вис от перегрева или подобных причин.
Ужас, что это за хостинг где сервера греются? Они у них что, в подвале с кондиционером стоят, а кондиционер сломался или залился водой от швабры уборщицы? А представляете, если в следующий раз на утро вам напишут «У нас были проблемы с температурой, подождите пожалуйста новый HDD и скиньте нам копию сайта». Бегите оттуда быстрее, мой вам совет.
Такой вопрос уже задавался одному из известных хостеров (вроде на РИТ). Он сказал, что экономически не выгодно брать сервера, которые будут нормально работать при наших летних температурах. Я для себя сделал вывод — хостинг нужно брать в Германии. Там и цены хорошие, и конкурентов много, и отличные каналы. Я заметил, что до некоторых Российских операторов пинг больше чем до Германских!
Sign up to leave a comment.
Ламерский вопрос