Pull to refresh

Comments 109

UFO just landed and posted this here
на Селектел время от времени то перебои то работы профилактические, стабильность точно не на высоте.
Э… «профилактические работы» вообще говоря клиентов почти не касаются.
UFO just landed and posted this here
Сравните. Амазон падал дважды или трижды за год, Хетцнер один раз…
Ок, он падал. Сравните профессионализм поддержки. Мне саппорт хецнера 8!!! часов предоставлял консоль на сервер, который пытался сам завестись. И это уже второй случай за последние 3 месяца
При чём тут профессионализм? Там может просто народу не хватает, чтоб бежать ставить консоль. За такие деньги — нормальная ситуация. Хотите консоль в любое время — берите сервак с IPMI за другие деньги :)

Между прочим, через rescue имидж у хецнера можно много чего сделать и без консоли.
У Селектела дедики сразу с IPMI идут.
Мне нечего сравнивать, я просто сказал по постам, что я вижу здесь и на серче.
Так у нас сервера на собственной площадке работают
Сравните. Амазон падал дважды или трижды за год, Хетцнер один раз…

У каждого, видимо, свои представления о надёжности… Сеть у них падает довольно часто по сравнению с французским OVH. Тут ещё кому как повезёт с их ДЦ (в панели указано для каждого сервера), которых, я так понимаю, не один десяток.
У меня мониторинг сервера ведется раз в минуту.
Сеть у них не падает практически никогда.
Сеть у них не падает практически никогда

Не знаю, как у вас там устроено, и интересуетесь ли вы вообще статистикой с этого мониторинга. Иначе бы знали, что последний раз, например, сеть падала у DC14. Конечно, не на несколько часов, как иногда бывало прежде. Но для наших ресурсов бывает довольно критично даже 10 минут, тем более если это случается в час пик по MSK.
Мониторинг используется внешний, alertra.
У хетцнера частенько проблемы бывают. Сеть часто падает- сервер работает, но до него не достучишся. Причем видимо это зависит от ДЦ.

Один раз они вообще поставили рекорд маразма — написали предупреждение об абузе в 2 часа ночи (с пятницы на субботу). А в 9 утра отключили сервер, из-за отсутствия реакции на письмо.
попробуйте еще одного немца fastvps.ru уже два года пользуюсь. дешевле чем hetzner и качество весьма неплохое
Это ж вроде как виртуалки, что на железе хетзнера и работают. Ясен пень они дороже, в убыток себе русская фирма работать ни в жисть не станет.
Лучше бы подробно расписали о настройка, установке и подводных камнях во время использования.
Многих скорей всего будет отпугивать именно отсутствие оперативной поддержки. Так как в тех же амазонах и линоиде, люди платят за веру в светлое будущее.
А если купить 40 б/у серверов класса Dell DL360G5 из Китая по $300 каждый (16 ГБ памяти на каждом, 2 Xeon, скажем, 5440), и арендовать rack за $210 / мес, то TCO такой «системы» в течение, скажем, 3 лет получится $19560 или $0.7443 / час. Таким образом стоимость аренды эквивалента Small Instance получится около $0.00211 / час. Т.е. еще в 4 раза меньше.

PS: пожалуйста, не думайте, что я это всерьез :)
Двойка мне за маркетинг. Не «еще в 4 раза меньше», а «теперь в 68 раз меньше!!!» (17 * 4).
Где это деллы с 16 Гб памяти и двумя четырехядерниками по 300$?
Плюсую. Дайте ссылку плз.
Я бы купил десяток.
Очень жалко, что в России нет подобного
Это просто б/ушные серверы. Куда-то же девают российские ДЦ свое старое железо? Надо найти это место и приобщиться к нему :)
Я понял что б/ушные. Для небольших компаний, даже такой сервер был-бы очень не плохим подспорьем.
Т.е. эти VPS с 256 МБ памяти и 600 МГц 1 ядром могут быть вовсе даже не виртуальными… :)
а оно 3 года проживет?
С вероятностью 50/50 — или да или нет :)
Вы показываете знание вопроса!

Имелось ввиду HP Proliant DL360G5?
Агамс, он самый. HP, Dell — все серверы на одно лицо. :)
Нене, написано же — в Китае!

Там айфон «Самсунг» с двумя сим-картами — это нормальное дело.
А еще добавьте стоимость замены оборудования при поломках.
У них один дата-центр или несколько географически распределенных, и через openstack можно, например, создавать и управлять инстансами виртуальных машин в разных зонах?
Можно, называется это availability zones и поддерживается, если я правильно помню, c Essex релиза.
Интересно было бы почитать про развертывания всего этого хозяйства!
>> Мне всё равно, что у них стоят десктопы или б/у диски, не ECC память, и ещё что-нибудь.
Очень зря вам все равно. ECC нужна.

>> Программное обеспечение должно стабильно работать на дешевом железе, в котором возможны отказы, сбои, потери данных.
Да, работает. Ровно до первого сбоя с kernel panic, или до первой потери данных из-за экономии на памяти/дисках.
Упс, комментарий ниже.
У меня так же отлично полетел винт на Амазоне, данные восстановить не удалось, благо бакупы были.
Как на Амазоне может полететь винт? Это же облако и физически все должно быть распределено и бэкапиться?
EBS распределен и бэкапится (если вы ему делаете snapshot), а винты на инстансах летят только так, еще и часть хранилища вообще не персистентная.
Вы прям разбили светлые надежды юзеров, убегающих от плохого хетцнера с негодным винтами в тучи.
Как же так, неужели нет провайдеров, где ничего не ломается?
Стабильность инстанса даже по документации не гарантируется, т.к. инстанс может быть выключен и перезапущен на другой машине по желанию Амазона.

Поэтому всё, что хочется иметь в инстансе, должно быть сохранено в image. Всё остальное сохраняется на EBS и S3.
Винт полетел в облаке. Такой романтический образ. Вон он, где-то там парит вместе с птицами…

Обозвав кучу железа облаком, Вы не сможете защитить его от разрушения. Чудес не бывает, и рано или поздно оно превратится в металлолом.
Вы можете защитить от разрушения данные, а не железо. «Винт» в случае Амазоновского инстанса виртульное понятие, разве нет?
Сюрприз, диск может полететь «логически»… т.е. развалится не физический носитель а его логическая составляющая… почитайте множественные посты про проблемы у наших отечественных облачников…
У них есть сервера с ECC — на 20 евро дороже. Но я свою позицию не изменю. Пока по качеству/сервису это лучших хостинг-провайдер, из тех, что я пробовал.

Кстати, я на Хабре часто замечаю нападки на Хецнер. Помню активно обсуждалось, что у них б/у диски. Мне вот интересно, у всех других, в т.ч. наших хостеров — они новые?

В любом случае я смотрю на результат. Не знаю как у других, но у меня пока не было ни одной проблемы с железом или саппортом у Хецнера. Тут часто пишут про падения у российских облачных сервисов. Да, наверное у них память с ECC! И новые диски на дорогом оборудовании? Но качество сервиса и стабильность объективно хуже. Да и вроде сравнительно недавно Амазон тоже падал.

Упасть может все, и амазон и хетцнер, вопрос лишь в том, где большая вероятность возникновения подобной ситуации.
>Помню активно обсуждалось, что у них б/у диски. Мне вот интересно, у всех других, в т.ч. наших хостеров — они новые?
упс, случайно опубликовал пост без ответа…

А какая разница: новые или нет? Или, по вашему, это признак того, что они проживут дольше?
Да в том то и дело, что я разницы не вижу. Но многие из-за этого возмущались.
по моему опыту: надёжнее всего диски от 1 года до 5 лет.
новые как раз чаще ломаются :)
если год прожили, то ещё долго жить будут.
Пробовали создать аналогичное облако на хецнере, к сожалению не получилось. Можно ли с вами как то связаться, чтобы обсудить этот вопрос?
Случайно нашел эту тему и увидел старое ваше сообщение. А в чем проблема, почему не получилось-то? Как раз поднимаю OpenStack сейчас в тестовом режиме на нескольких серверах, пока проблем не поймал никаких.
свою ЗП запишите в расходы на облако в Хецтнере
А как вы убедили Hetzner переконфигурить ваш десяток (стоящик в разных углах ДЦ) серверов так, чтобы у них появилось централизованное отказоустойчивое хранилище на 54 Тб?
Это суммарный объем дисков всех серверов. Это не централизованное отказоустойчивое хранилище.
Поверх этого можно уже делать хранилище, например на OpenStack Swift.
Ну тогда это не облако, а сервера нарезанные под VPS. Это нельзя сравнивать с Amazon EC2/whatever, банально разные вещи.
Не понял, откуда у вас такой вывод?
Ок. А почему вы решили, что у вас облако?
Сейчас слово «облако» часто используется в маркетинговых целях. Для себя, я выделил следующие моменты:
— потому что мы полностью абстрагировались от железа и ничего про него не знаем (в том смысле, какая виртуальная машина где находится), т.е. абсолютно все железо равнозначно и легкозаменяемо;
— система, которую мы разрабатываем, через API OpenStack'a может поднимать новые вычислительные мощности;
— мы можем увеличить вычислительные ресурсы без переконфигурирования, просто добавив новые сервера;
— ну как бы сам openstack подразумевает из себя платформу для построения облачных систем;

Этого не достаточно?
>Это суммарный объем дисков всех серверов. Это не централизованное отказоустойчивое хранилище.

Что будет с виртуальной машной, если упадет нода, на которой она работает?

Что будет, если виртуальная машина захочет больше памяти, но на ноде ее не будет, а на другой ноде будет достаточно памяти?

> мы можем увеличить вычислительные ресурсы без переконфигурирования, просто добавив новые сервера;
Не показатель.

>ну как бы сам openstack подразумевает из себя платформу для построения облачных систем;
Опять, не показатель.

>система, которую мы разрабатываем, через API OpenStack'a может поднимать новые вычислительные мощности;
И?

>потому что мы полностью абстрагировались от железа и ничего про него не знаем (в том смысле, какая виртуальная машина где находится), т.е. абсолютно все железо равнозначно и легкозаменяемо;
Ну, так это просто виртуализация.
Собственно, afaik, сейчас нет нормальных облачных технологий, не построенных вокруг каких-то абстракций, которые бы могли выделять память свыше физического объема памяти машины-хоста. Может быть, ошибаюсь.
>Собственно, afaik, сейчас нет нормальных облачных технологий, не построенных вокруг каких-то абстракций, которые бы могли выделять память свыше физического объема памяти машины-хоста. Может быть, ошибаюсь.

Я немного о другом говорил. Если у них все сервера разные, логично предположить, что на каждом, разное количество памяти. А так как хранилище не общее, машина не сможет быстро запуститься на ноде, с нужным количеством памяти.
Более того OpenStack не умеет нормально отслеживать падения хост-серверов. С миграцией виртуальных машин тоже не все гладко.
Про память — у VMware есть over-provisioning
И всё же. Что вы будете делать при отказе любого из компонентов? Особенно после того, как вы написали что диски у вас без RAID. Ну вот диск полетел, или сервер завис. Память сгорела, материнка, сетевой провод отошёл.
Тоже, что делают, когда летят диски на Амазоне или других провайдеров. А они там тоже летят, данные теряются, машины с остановкой переносят, и т.п. Тут всё тоже самое. Сейчас для критичных данных используем том Gluster'a. Пробовали DRBD. Всё зависит от задачи, для критичных сервисов, можно и Hearbeat поднять. И в любом случае, пока ни единого сбоя за три года пользования хецнера не было.

И в статье я писал про вычислительное облако, и пару раз подчеркнул, что не ставлю его конкурентом EC2. Кто-то готов платить и пользоваться EC2, кто-то готов настроить всё своими силами и платить сильно меньше. Каждому — свое. По мере задач и возможностей.
Вы сказали, что централизованного хранилища у вас нет и подобный финт не пройдёт. Какое «тут всё то же самое»?

И в статье явно сравнивали стоимость вашего решения с ЕС2. Отсюда и все вопросы, на самом деле.
Читайте внимательнее. Я не говорил, что у нас нет централизованного хранилища. Я сказал, что 54 ТБ это объем всех дисков, а не централизованного хранилища.

Да, и вся статья именно про сравнение стоимости с EC2, именно в контексте вычислительного облако, а не S3, Dynamo DB, и т.п.
А как там дела с трафиком? Я вот ищу платформу для раздачи контента, т.е. на диски/память я внимания вообще никакого не обращаю, а вот раздать много трафика мне надо.
А CDN не рассматриваете?
У меня специфичный софт для раздачи контента.
UFO just landed and posted this here
А как вы обеспечиваете отказоустойчивость DNS?
Вообще это много лет как работает из коробки, просто впишите несколько адресов в NS записи своей зоны.
Вы тёплое с мягким не путайте, отказоустойчивость DNS — это несколько NS записей. А вы пишете про отказоустойчивость сервиса с помощью DNS, это совсем другое. Если нужно второе — то курите маны в сторону CARP и аналогов, + балансировщики нагрузки.
Немного практических вопросов:
У вас все сервера в одном датацентре? Какая скорость между серверами (100Mbit/s или 1Gbit/s)? Как Hetzner считает траффик между серверами? Какая файловая система используется?
Всё с хецнером хорошо, если бы не подсеть 5.0.0.0/8
А что не так с данными IP-адресами?
Не работают для тех, у кого установлено Hamachi.
Так разве это проблема Хецнера?
Это проблема не Хецнера, это проблема пользователей Хецнера.
Господа, обьясните малознающему в администрировании — зачем своё облако из 17 серверов?! Подразумевается создание хостинга для клиентов или же это чисто для себя, создавать инстансы под свои проекты?
Благодарю
Затем, чтобы например повысить отказоустойчивость проекта…
При вылете 1-го железного сервера не падало все…
а при необходимости нарастить производительность, просто добавляли машину в облако.
А свое, чтобы всякие амазоны не лазили по твоим машинам например.
Хотя для этого, Hetzner тоже не очень хороший вариант… лучше свой уютный датацентрик ))
Насколько я знаю, то понятие масштабируемости еще до облаков вполне успешно использовалось. Фронтенд, бекэнд или как там. Суть облака всё-таки немного в другом… Больше в создании кучи виртуальных машин)
Как вы это себе представляете в конфигурации, описанной в статье?
Единственная причина — хостить проекты со скачкообразным трафиком. Чтобы можно было динамически добавлять ресуры когда нагрузка высокая.

Но даже в этом случае лучше взять Хетцнер, потому что он в 10 раз дешевле. То есть можно просто заранее покрыть в 10 раз более высокую потребность в ресурсах.

Ну и еще некоторые провайдеры вроде Амазона дают как бы дополнительные плюшки. Вроде хранилища Dynamo DB. Это для того, чтобы подсадить клиента, чтобы потом он от них не ушел, когда нагрузка (и цена) сильно повысится.
Типичный пример. На предприятии десяток-два старых но более-менее исправно работающих серверов. Облака позволяют слить в единый пул дисковые, вычислительные и сетевые ресурсы этого хлама, и использовать их под текущие и не только текущие задачи. В итоге выгоды:
1) Ввод серверов в эксплуатацию в составе унифицирован и тривиален. И осуществляется очень быстро. Соответственно есть возможность оперативно добавить ресурсы без остановки облака.
2) Отказ и выход из строя отдельных (особенно если они уже побывали в боях) серверов при правильной организации облака становится некритичным.
3) Есть возможность использовать в составе облака разнородное железо (начиная от брендовых мейнфремов и заканчивая самосборными на коленках, типа серверами). Проприетарные и не только проприетарные решения часто требуют использования унифицированного железа. Всё бы ничего, но железо имеет свойство стареть и выводиться из производства, и смена вычислительной платформы в определенный момент превращается в жуткий геморрой и разводилово на бабло со стороны поставщиков решения…
4) Наличие приватного облака раз и на всегда решает проблему, когда под каждый новый проект приходится покупать новый сервер. Выделил в облаке сколько надо ресурсов и пусть работают ребята. Надо еще? No problem, прирезал сколько надо. Удобно, например, для более-менее серьезных команд разработчиков…

С проблемами у облака тоже всё в порядке. Поэтому облака это не панацея. Их, как и всё остальное, надо «уметь готовить»…

Масштабирование это как правило частная задача которую решает облако. Причем конкретно эту задачу облако решает не самым эффективным образом… Облако это скорее унификация управления за счет консолидации. Как-то так…
UFO just landed and posted this here
Тут недавно один немецкий хер написал что якобы мы используем его картинку, ни пруфов, ни raw, ни авторских прав, ни ссылку на стоки не предоставил, зато написал абузу, по которой дата-центр хетцнера вынес предупреждение, опять же без пруфов.
У нас был the same shit. Причём картинка хранилась даже не на нашем сервере, а просто у <img> стояла ссылка на чью-то копипасту на серверах «В контакте» (!).
С выпиливанием ссылки не спешили, потребовав пруфов от жалобщика. Пока ждали, что заявитель почешется и ответит на e-mail, доблестные сотрудники Hetzner взяли да и выключили всё нафиг, в последствие потребовав производить все вмешательства исключительно через KVM. :-(
В плане чьих-либо нападок у них политика абсолютного беспредела, увы. Мотивация всегда будет «нельзя всё, что незаконно», без конкретных отсылок к тому или иному законодательству, или применения здравого смысла и понимания принципов работы Интернета.
Отчасти, наверное, можно попробовать обдурить abuse отдел путём подмены/скрытия контента при обращениях из диапозона 80.150.215.96/29 (возможно и других) — это их офисная подсеть.
Кстати да, любой поисковик у немцев (у любых) незаконен, так как там могут быть ссылки на те же mp3 на чужих сайтах, тут бывало дело доходило даже до предписания прокуратуры РФ немцам о нарушении копирайта.
Как там гугл существует — ума не приложу.
Впрочем и в англии бывает такой же абсурд, одного даже реально посадили за то что на своём сайте выкладывал ссылки на нелицензионные сериалы, ведущие на… youtube.
Уже немного устал от расхваливания ДЦ Hetzner.
Каждый раз, когда кто-то говорит «разверните свой swift», этот человек забывает добавить «и напишите свой кешер».

Удачи тем, кто думает о ванильном свифте.
Статья полезная техническом плане и надеюсь побудит многих начать осваивать облачные технологии, но идеология автора в корне неправильна и порочна.

Железо должно быть надежным, а не дешёвым… Очевидно автор не имеет никакого отношения к программированию и даже близко не представляет себе затраты на создание «отказоустойчивого софта». По сравнению с ними затраты на надежное железо — это даже не копейки, гроши…

Конечно, взяв «халявный» OpenStack и «халявные» в плане администрирования cервера Hetzner, можно сколько угодно рассуждать, что железо должно быть дешёвым, а софт отказоустойчивым. Но это откровенно страусиный подход.

Как только ваши задачи и ваши требования к надежности выйдут за пределы стандартных, и стоимость минуты простоя станет обходится вашей конторе в сумму с 3-4 нулями в зелёных, вы сразу же поймёте о чем речь. Тогда вам придется нести эти все эти затраты в полный рост, и дешевое железо и отказоустойчивый софт в вашей голове встанут на свои места в иерархии ценностей it-специалиста… )

Правда, иногда возникают проблемы типа невозможности запихнуть больше 96 гигов памяти в одну машину или больше 24 дисков в одну полку. В определённый момент горизонтальное масштабирование начинает стоить сильно дешевле вертикального. И софт придётся писать отказоустойчивым, потому что диски, к примеру, всегда будут сыпаться, природа у них такая. А сеть всегда падает, и обязательно будут ретрансмиты. И ещё сервера внезапно выключаются. Но использовать надо серверное железо, аптайм от этого сильно вырастает, экономятся админские нервы.

И про эти проблемы знают те, кто хотя бы сотню серверов в одном приложении использует. Мегасистему, которая крутится на каком нибудь сановском сервере за пол ляма долларов, проще написать. Но сервера с xeon на ту же сумму могут оказаться намного производительнее.
+1! На железе экономили на заре программирования, а теперь оно стоит гораздо дешевле, чем время специалиста. Время простоя — хороший универсальный показатель.
UFO just landed and posted this here
Зачётный заголовок поста. Своё облако в 10-15 раз дешевле EC2. Это типа как «Своя софтверная компания в 10-15 раз дешевле Microsoft'а».

Всё дело в том, что Вы создаёте инфраструктуру, перенося на себя все затраты по обеспечению её функционирования. А Amazon EC2 предоставляет платные сервисы для использования своей инфраструктуры. Заметьте, Вы не покупаете облако, Вы покупаете сервисы, которые это облако предоставляет.
Сдаю место в депозитарии у себя в коридоре. Аренда ячеек гораздо дешевле, чем в банке через дорогу :)
Предоставляете ли вы гигабитные каналы, есть ли резерв по питалову, remote hands, пробегает ли мимо уборщица/жена со шваброй?
Жены и уборщицы со шваброй нет, но есть кот с недержанием
Sign up to leave a comment.

Articles