Комментарии 190
НЛО прилетело и опубликовало эту надпись здесь
Ориентировочные тарифы было бы неплохо узнать.
Добавил ссылку на сайт www.slidebar.ru
А почему на сайте об этом ни слова? (или я плохо искал)
Думаю это было бы интересно вашим потенциальным клиентам не читающим хабр.
Думаю это было бы интересно вашим потенциальным клиентам не читающим хабр.
Как только откроем напишем. Пока идет закрытое тестирование.
ссылка на www.slidebar.ru — вот чего не хватало :)
ссылка на www.slidebar.ru — вот чего не хватало :)
Какте детали можете рассказать?
Какие физические машинки используются, как организовано хранение информации, сеть, мониторинг?
Какие возможности предоставляете клиентам (например, можно ли самостоятельно делать снапшоты, рестартануть не отвечающую по сети машину)
Какие физические машинки используются, как организовано хранение информации, сеть, мониторинг?
Какие возможности предоставляете клиентам (например, можно ли самостоятельно делать снапшоты, рестартануть не отвечающую по сети машину)
Про инфраструктуру написано на странице проекта и на нашем сайте.
Снапшуты в планах на реализацию, на данный момент еще не внедрены.
Рестартануть машину можно без проблем, т.к. для вас она выглядит как полноценный виртуальный сервер.
Снапшуты в планах на реализацию, на данный момент еще не внедрены.
Рестартануть машину можно без проблем, т.к. для вас она выглядит как полноценный виртуальный сервер.
там написана голая реклама, а не ТТХ
«Сервера кластеров построены на платформе HP с процессорами 5500 серии и используют разделяемое сетевое хранилище (SAN) Cluster Shared Volume.»
Какие именно сервера HP?
Сколько как мониторится и балансируется нагрузка на SAN? Какой тип SAN используется?
Или, лучше каких параметров дисковой подсистемы следует ожидать?
Используется ли Dynamic Memory?
Какие возможности мониторинга предоставляете? Например, можно ли настроить мониторинг работы конкретного сервиса?
Что касается рестарта я не понял. Я спрашивал про намертво зависшую машину
Есть кнопка в панели управления, способная рестартануть зависшую машину?
Есть ли альтернативный доступ в консоль сервера, будет ли критичной для клиента ошибка при неправильном конфигурировании Firewall?
«Сервера кластеров построены на платформе HP с процессорами 5500 серии и используют разделяемое сетевое хранилище (SAN) Cluster Shared Volume.»
Какие именно сервера HP?
Сколько как мониторится и балансируется нагрузка на SAN? Какой тип SAN используется?
Или, лучше каких параметров дисковой подсистемы следует ожидать?
Используется ли Dynamic Memory?
Какие возможности мониторинга предоставляете? Например, можно ли настроить мониторинг работы конкретного сервиса?
Что касается рестарта я не понял. Я спрашивал про намертво зависшую машину
Есть кнопка в панели управления, способная рестартануть зависшую машину?
Есть ли альтернативный доступ в консоль сервера, будет ли критичной для клиента ошибка при неправильном конфигурировании Firewall?
да и так многое понятно, стоят там скорее всего bl460c g6 в c7000.
сторы скорее всего eva. хотя может экономили и поставили lefthand. в xp скорее всего дороговаты.
в общем все это можно видеть и в обычных фирмах, пусть не в таких объемах.
если дают возможность доступа снаружи к виртуалке, то скорее всего и рестарт возможен и консоль.
сторы скорее всего eva. хотя может экономили и поставили lefthand. в xp скорее всего дороговаты.
в общем все это можно видеть и в обычных фирмах, пусть не в таких объемах.
если дают возможность доступа снаружи к виртуалке, то скорее всего и рестарт возможен и консоль.
Ноды кластера, где виртуалки крутятся — HP DL 160G6, их сейчас в кластере более 10. Каждая с 2-мя Intel 55xx, и 72G RAM
Хранилище (где лежат VHD) построено тоже на серверах HP, но другой серии, забитых по максимуму SAS-дисками в RAID10. Между ними — iSCSI, 2x1 Гбит/сек.
Мониторинг — MS SCOM.
Рестартануть можно через SC VMM.
Альтернативый доступ, если RDP не получается, тот же SC VMM / VM Viewer.
Хранилище (где лежат VHD) построено тоже на серверах HP, но другой серии, забитых по максимуму SAS-дисками в RAID10. Между ними — iSCSI, 2x1 Гбит/сек.
Мониторинг — MS SCOM.
Рестартануть можно через SC VMM.
Альтернативый доступ, если RDP не получается, тот же SC VMM / VM Viewer.
спасибо.
но я думал у вас более серьезно все.
хотя для стартапа наверно нормально.
но я думал у вас более серьезно все.
хотя для стартапа наверно нормально.
iSCSI? Уй, ё… А почему так? EVA с FC — слишком дорого? Ведь эти 2 гигабита как пить дать просядут по iops'ам, когда достаточно клиентов наберется…
И кстати, вопрос: каким образом вы поддерживаете Linux, и самое главное — FreeBSD на серверах Hyper-V? Сам Microsoft официально поддерживает, кроме виндов разумеется — только два дистрибутива линукса: RHEL и SLES, причем какие-то конкретные версии. Под все остальные ОС нет Integration Services, да и поддержки не будет — случись что.
IMHO как раз здесь, когда подразумевается поддержка других, non-MS операционок — нужно использовать VMware.
И кстати, вопрос: каким образом вы поддерживаете Linux, и самое главное — FreeBSD на серверах Hyper-V? Сам Microsoft официально поддерживает, кроме виндов разумеется — только два дистрибутива линукса: RHEL и SLES, причем какие-то конкретные версии. Под все остальные ОС нет Integration Services, да и поддержки не будет — случись что.
IMHO как раз здесь, когда подразумевается поддержка других, non-MS операционок — нужно использовать VMware.
вероятно и-за цены первоначальных вложений. кроме евы еще надо hba в каждый сервер, и брокейд купить с гбиками и лицензиями.
вот если б они блейды брали, там хоть cf мезанин есть недорогой, но опять же блейды голые дороже, а у них сервера, которые без памяти по 1300 стоят на офсайте хп.
да ладно, запустится там любой линух/фря, а на сервисы наплевать. вмварь стоит заметно дороже.
вот если б они блейды брали, там хоть cf мезанин есть недорогой, но опять же блейды голые дороже, а у них сервера, которые без памяти по 1300 стоят на офсайте хп.
да ладно, запустится там любой линух/фря, а на сервисы наплевать. вмварь стоит заметно дороже.
Блэйды, стати, ЕМНИП, выходят по стоимости значительно дешевле, если их будет больше определенного кол-ва (от 10, вроде бы). В том числе из-за более дешевых HBA-мезанинов, да и брокадники блэйдовые вроде как чуть дешевле. К тому же, речь идет о хостерах — а у них киловатты энергопотребления и юниты в стойке тоже стоят денег, и это надо учитывать.
Да, вложения может чуть и побольше, но 8 и даже 4-гигабитный FC — это немного не то же самое, что iSCSI по двум гигабиткам, который может в любой момент «просесть» под нагрузкой. Да и задержки в среде у него присутствуют, в отличие от того же FC.
Эта методика вполне сгодится, если, к примеру, подымать прокси-сервер в конторке на 10 человек, через который они будут трепаться в аське и сидеть в уютненьких одноклассниках и вконтактиках. А когда речь идет о серьезном продакшн-решении, да еще и о хостинге, за который берут деньги — тут внедрять неподдерживаемые вендором решения просто нельзя.
Да, вложения может чуть и побольше, но 8 и даже 4-гигабитный FC — это немного не то же самое, что iSCSI по двум гигабиткам, который может в любой момент «просесть» под нагрузкой. Да и задержки в среде у него присутствуют, в отличие от того же FC.
да ладно, запустится там любой линух/фря, а на сервисы наплевать.
Эта методика вполне сгодится, если, к примеру, подымать прокси-сервер в конторке на 10 человек, через который они будут трепаться в аське и сидеть в уютненьких одноклассниках и вконтактиках. А когда речь идет о серьезном продакшн-решении, да еще и о хостинге, за который берут деньги — тут внедрять неподдерживаемые вендором решения просто нельзя.
Давайте, тогда уж, с цифрами в руках обсудим блейды. Действительно интересно.
Оставляем «за скобками» хранилище, место в стойке и электричество.
Остается только процессор и RAM.
Задача — мне для кластера нужно 100 процессорных ядер и 1Т RAM.
Дайте примерный расчет по любым известным блейдам на эту задачу (100 ядер 1Т RAM) пожалуйста.
По HP я примерный расчет могу дать. DL160G6 c 8 ядрами и 72G RAM стоит примерно 300 тыс рублей. таких надо будет 14 шт, итого на указанный объем 4,2 млн рублей.
Оставляем «за скобками» хранилище, место в стойке и электричество.
Остается только процессор и RAM.
Задача — мне для кластера нужно 100 процессорных ядер и 1Т RAM.
Дайте примерный расчет по любым известным блейдам на эту задачу (100 ядер 1Т RAM) пожалуйста.
По HP я примерный расчет могу дать. DL160G6 c 8 ядрами и 72G RAM стоит примерно 300 тыс рублей. таких надо будет 14 шт, итого на указанный объем 4,2 млн рублей.
можно грубо прикинуть:
Базовая поставка c7000 с 2 б.п. и 4 куллерами — 200 т.р.
BL460c G6 (в комплекте с 1 процом) от 110 до 150 т.р. (14 лезвий с запасом)
Пара гигабитных мезанин — еще 200 т.р.
примерно 2.2 мл.р.
Добавить:
— по процу в лезвие.
— памяти (в зависимости от версии блейда ставится до 96-192 гб.)
— б.п., куллеров.
думаю придем к вашей сумме, а вероятно и дешевле.
цены брал с русских магазинов. думаю, если выходить на интегратора, за все вместе пачкой будет заметная скидка. у нас была.
это без FC еще, но за то FC туда добавить уже будет просто.
еще экономия на месте (10u) и питании.
т.е. при количестве серверов больше 6-10 уже разницы в цене не должно быть. а при большем количестве блейды в итоге удобнее, гибче и дешевле.
одну из интсталляций видно тут kawai.spb.ru/photo/v/hardware/other/energ/ а то еще скажите, что теоретик :)
Базовая поставка c7000 с 2 б.п. и 4 куллерами — 200 т.р.
BL460c G6 (в комплекте с 1 процом) от 110 до 150 т.р. (14 лезвий с запасом)
Пара гигабитных мезанин — еще 200 т.р.
примерно 2.2 мл.р.
Добавить:
— по процу в лезвие.
— памяти (в зависимости от версии блейда ставится до 96-192 гб.)
— б.п., куллеров.
думаю придем к вашей сумме, а вероятно и дешевле.
цены брал с русских магазинов. думаю, если выходить на интегратора, за все вместе пачкой будет заметная скидка. у нас была.
это без FC еще, но за то FC туда добавить уже будет просто.
еще экономия на месте (10u) и питании.
т.е. при количестве серверов больше 6-10 уже разницы в цене не должно быть. а при большем количестве блейды в итоге удобнее, гибче и дешевле.
одну из интсталляций видно тут kawai.spb.ru/photo/v/hardware/other/energ/ а то еще скажите, что теоретик :)
>Добавить:
>— по процу в лезвие.
>— памяти (в зависимости от версии блейда ставится до 96-192 гб.)
>— б.п., куллеров.
Давайте добавим.
по процу в лезвие = 35тр * 14 = 490тр
памяти 1Т, давайте брать 8гиговые по 18тр, итого надо 125 штук = 2250тр.
Уже выходит
2,2 + 0,49 + 2,25 = 4,94 млн.
Это без бп, кулеров, прочего. Итоговый ценник за 5 млн точно зашкалит. Так что дороже блейдами получается, однако.
Сэкономить можно на месте в стойке, на электричестве, но не так много.
Ну и наконец, накроется C7000 физически — что тогда? Все виртуалки в даун.
А у нас один DL160 накроется, все виртуалки с него поднимаются на соседних. Отказоустойчивость выше.
Я уже писал в этом топике — каждой категории задач — свои решения. У блейдов есть преимущества, но не в данной архитектуре.
>— по процу в лезвие.
>— памяти (в зависимости от версии блейда ставится до 96-192 гб.)
>— б.п., куллеров.
Давайте добавим.
по процу в лезвие = 35тр * 14 = 490тр
памяти 1Т, давайте брать 8гиговые по 18тр, итого надо 125 штук = 2250тр.
Уже выходит
2,2 + 0,49 + 2,25 = 4,94 млн.
Это без бп, кулеров, прочего. Итоговый ценник за 5 млн точно зашкалит. Так что дороже блейдами получается, однако.
Сэкономить можно на месте в стойке, на электричестве, но не так много.
Ну и наконец, накроется C7000 физически — что тогда? Все виртуалки в даун.
А у нас один DL160 накроется, все виртуалки с него поднимаются на соседних. Отказоустойчивость выше.
Я уже писал в этом топике — каждой категории задач — свои решения. У блейдов есть преимущества, но не в данной архитектуре.
ценники все же близки + мои явно завышены, т.к. брал с сайтов цену на отдельные элементы.
думаю в вашу сумму можно уложиться с блейдами при реальном заказе.
выход из строя шасси маловероятен — оно позиционируется hp как базис для отказоустойчивой системы, где все остальное дублируется. думаю у них можно узнать существовали ли когда-либо отказы из-за шасси.
но для паранойи можно взять сразу два (в рост), стоит всего 200т.р., вам все равно когда-то придется расширяться.
мне по работе приходится выбирать из чего и как строить системы и последние годы я предпочитаю бледовые варианты, они себя оправдывают.
думаю в вашу сумму можно уложиться с блейдами при реальном заказе.
выход из строя шасси маловероятен — оно позиционируется hp как базис для отказоустойчивой системы, где все остальное дублируется. думаю у них можно узнать существовали ли когда-либо отказы из-за шасси.
но для паранойи можно взять сразу два (в рост), стоит всего 200т.р., вам все равно когда-то придется расширяться.
мне по работе приходится выбирать из чего и как строить системы и последние годы я предпочитаю бледовые варианты, они себя оправдывают.
Посчитайте себестоимость 1GB хранилища EVA c FC, и сразу все станет ясно. И посмотрите на результаты с точки зрения перспектив продажи на рынке VDS. Для каждого класса решений — свои технологии.
Но при этом, мне кажется, вы упустили из описания фразу про Cluster Shared Volume. А это принципиальный момент. У нас по iSCSI подключено не одно большое хранилище, в котором лежат все VHD виртуалок, а много отдельных серверов хранилища, каждый из которых подключен на 2Гбит. Равно и как каждый «вычислительный» node кластера.
Но при этом, мне кажется, вы упустили из описания фразу про Cluster Shared Volume. А это принципиальный момент. У нас по iSCSI подключено не одно большое хранилище, в котором лежат все VHD виртуалок, а много отдельных серверов хранилища, каждый из которых подключен на 2Гбит. Равно и как каждый «вычислительный» node кластера.
Есть такая вещь, как Starter Kit — ева в минимальной конфиге — 2 контроллера и 1 полка с дисками. То ли 72-гиговые, то ли 146и — не помню, к сожалени — нет под рукой продакт бюллетеня :( Стоит все это удовольствие то ли 20 то ли 25 тыщ президентов.
Итого, если дисков 12 по 146 — то в сумме около 1,8Тб. Гиг при таком раскладе стоит около 14 баксов.
Если 14 баксов за гиг — это много, то можно взять что-нибудь типа MSA2000 с SAS-дисками и SAS-интерфейсом. Все лучше, чем iSCSI.
А можно подробнее — что имеется в виду под «серверами хранилища»? Это что-то типа HP X1000 с Windows Storage Server, или Starwind, или что-то никсообразное?
Итого, если дисков 12 по 146 — то в сумме около 1,8Тб. Гиг при таком раскладе стоит около 14 баксов.
Если 14 баксов за гиг — это много, то можно взять что-нибудь типа MSA2000 с SAS-дисками и SAS-интерфейсом. Все лучше, чем iSCSI.
А можно подробнее — что имеется в виду под «серверами хранилища»? Это что-то типа HP X1000 с Windows Storage Server, или Starwind, или что-то никсообразное?
12 по 146 — это ближе к терабайту-полутора. там же накладные расходы еще.
вот например подробнее про нетап: thenexus6.livejournal.com/3278.html
вот например подробнее про нетап: thenexus6.livejournal.com/3278.html
Если подвигать ползунок диска на www.slidebar.ru, видно, что у нас 1 Гиг хранилища стоит 12 рублей 50 копеек в месяц.
Если он будет в закупке 14 баксов (420 р), то надо ценник розничный повышать в разы.
А и так многие говорят «у вас дорого дорого, в германии дедики дешевле чем ваш облачный VDS :-)»
Впрочем, если есть спрос то есть и предложение. И если мы увидим что есть платежеспособный спрос на хранилища повышенной производительности (имея в виду массовый рынок, понятно что в корпоративном сегменте он есть и сейчас), то развернем рядом кластер другой архитектуры, с С7000+FC+Net App или HP Eva. Но пока нет уверенности что это можно продать, дело только в этом. Все перечисленное выше мы знаем и любим :-)
Если он будет в закупке 14 баксов (420 р), то надо ценник розничный повышать в разы.
А и так многие говорят «у вас дорого дорого, в германии дедики дешевле чем ваш облачный VDS :-)»
Впрочем, если есть спрос то есть и предложение. И если мы увидим что есть платежеспособный спрос на хранилища повышенной производительности (имея в виду массовый рынок, понятно что в корпоративном сегменте он есть и сейчас), то развернем рядом кластер другой архитектуры, с С7000+FC+Net App или HP Eva. Но пока нет уверенности что это можно продать, дело только в этом. Все перечисленное выше мы знаем и любим :-)
В Германии дедики дешевле — ну да, если как выше говорили дедики на десктопном железе — то они и будут дешевле :)
Я вот просто не уверен, что при определенном количестве клиентов ваши iscsi не начнут «проседать», поэтому возможно сразу можно было бы вложиться в более производительное хранилище — чтобы была возможность подключить еще больше клиентов :)
Я вот просто не уверен, что при определенном количестве клиентов ваши iscsi не начнут «проседать», поэтому возможно сразу можно было бы вложиться в более производительное хранилище — чтобы была возможность подключить еще больше клиентов :)
SLA интересный
Есть ли гарантированная скорость ответа саппорта?
Про почту тоже ничего непонятно.
«Почтовый сервер с 3Гб почтового простраства, антиспам, антивирус, веб-итерфейс» это непонятно.
Но где конкретика?
Непонятно даже кол-во ящиков.
Это Exchange? Если да, какой? OWA есть?
С чем есть синхронизация, какие протоколы?
Есть ли поддержка BlackBerry?
Spam filtering? Virus scanning? Как реализовано?
Какие квоты есть, помимо 3Gb?
Есть ли гарантированная скорость ответа саппорта?
Про почту тоже ничего непонятно.
«Почтовый сервер с 3Гб почтового простраства, антиспам, антивирус, веб-итерфейс» это непонятно.
Но где конкретика?
Непонятно даже кол-во ящиков.
Это Exchange? Если да, какой? OWA есть?
С чем есть синхронизация, какие протоколы?
Есть ли поддержка BlackBerry?
Spam filtering? Virus scanning? Как реализовано?
Какие квоты есть, помимо 3Gb?
Хотел потестить.
Но…
1) Винды — в мусор.
2) Писать письма… нафига об этом открыто писать, чтобы потом заявлять, что тестирование закрыто?
Но…
1) Винды — в мусор.
2) Писать письма… нафига об этом открыто писать, чтобы потом заявлять, что тестирование закрыто?
1) Можете поставить *nix, платформа не мешает это сделать
2) Чтобы знали что, это есть и отдать в тест тем кому это действительный интересно, еще до запуска сервиса. Вообще это стандартная практика при запуске сложных выскотехнологичных услуг.
2) Чтобы знали что, это есть и отдать в тест тем кому это действительный интересно, еще до запуска сервиса. Вообще это стандартная практика при запуске сложных выскотехнологичных услуг.
Ой, а где можно почитать про стандарты практик высокотехнологичных услуг?
Сложность кстати заключалась в написании панели управления?
а вы почитайте про Virtual Machine Manager 2008 R2
про то как проинтегрировать свое приложение с ним. И всё поймете.
про то как проинтегрировать свое приложение с ним. И всё поймете.
серьезный конкурент?
особой новинки пока не видно, все хостеры виртуалки крутят.
только вот панель напрямую к виртуалкам мало кто дает.
было бы интересно, если бы у них было много дц, и можно было ручками выбирать на каком дц и на каком сторе жить…
особой новинки пока не видно, все хостеры виртуалки крутят.
только вот панель напрямую к виртуалкам мало кто дает.
было бы интересно, если бы у них было много дц, и можно было ручками выбирать на каком дц и на каком сторе жить…
а память виртуалки от 256М до 8G все хостеры дают менять сколько хочешь и когда хочешь? А процессор? А диск? А почасовой биллинг у всех есть? Если да, то действительно, особой новинки нет.
Серьезно, покажите хостеров в России (да и в СНГ), любых, которые что-то подобное предлагают. Действительно интересно. Я искал и не нашел.
Серьезно, покажите хостеров в России (да и в СНГ), любых, которые что-то подобное предлагают. Действительно интересно. Я искал и не нашел.
не горячитесь.
даже если ни кто сразу не пишет, что даст 8 гиг, думаю под задачу реальному клиенту запросто прогрейдят.
просто не очевидна (и многим тут) разница между впс и клаудом.
даже если ни кто сразу не пишет, что даст 8 гиг, думаю под задачу реальному клиенту запросто прогрейдят.
просто не очевидна (и многим тут) разница между впс и клаудом.
Дык мы тоже на «обычных» фиксированных тарифах VDS даем пользователю возможность апгрейдиться и даунгрейдиться кнопкой в панели управления.
Но тарифных планов количество предопределенное, и конечное. Либо 1G либо 2G и т.д. Причем, чем дороже тариф, тем больше у него «всего», а многим не надо много диска, а надо много вычислительной мощности, и наоборот. Используя slidebar, можно сделать себе именно такую конфигурацию какую именно мне надо, и менять ее так часто как захочу.
И почасовой биллинг — можно внутри дня/месяца менять туда-сюда. И это будет адекватно рассчитываться.
Вот в этом основное отличие.
Клауд здесь проявляется в виде IAAS. Power-on-demand + Pay as you go :-)
Но тарифных планов количество предопределенное, и конечное. Либо 1G либо 2G и т.д. Причем, чем дороже тариф, тем больше у него «всего», а многим не надо много диска, а надо много вычислительной мощности, и наоборот. Используя slidebar, можно сделать себе именно такую конфигурацию какую именно мне надо, и менять ее так часто как захочу.
И почасовой биллинг — можно внутри дня/месяца менять туда-сюда. И это будет адекватно рассчитываться.
Вот в этом основное отличие.
Клауд здесь проявляется в виде IAAS. Power-on-demand + Pay as you go :-)
да, понятно.
но для «облачности» в сети лично мне хочется большей универсализации. что бы я скажем мог выбрать в каком из выших датацентров держать виртуалку, или вообще в нужный момент слить ее всю и запустить где-то в другом месте (не обязательно с целью убежать от вас, а например провести дома много интенсивных тестов, а потом залить обратно) и т.п.
но для «облачности» в сети лично мне хочется большей универсализации. что бы я скажем мог выбрать в каком из выших датацентров держать виртуалку, или вообще в нужный момент слить ее всю и запустить где-то в другом месте (не обязательно с целью убежать от вас, а например провести дома много интенсивных тестов, а потом залить обратно) и т.п.
Вы лучше расскажите, у вас при миграции квоты на проц слетают или нет?
Не знаю. Я хотел посмотреть, как у них там решается проблема с iosched'ом (хотел запустить spew на 4к на пару гигов и посмотреть на iop'ы). Кроме того, всё ещё не решён вопрос (у меня) с сохранением cap/weight при миграции, это немного нервирует.
А можно озвучить кейсы применения?
На www.slidebar.ru внизу в разделе «как использовать» написано несколько кейсов применения
НЛО прилетело и опубликовало эту надпись здесь
Rackspace например можно купить только с американской\европейской кредитки, Amazon проще, но никто из них вам не выдаст счет-фактуру, акт и прочее.
Что требуется большинству российских компаний.
Что требуется большинству российских компаний.
Для Rackspace моя Украинская прокатила, и у знакомого из Австралии так же работает
Неужели? Сбербанковскую Visa Classic Rackspace вполне себе принимает.
А ВТБ/Сити — не принимает. Но речь даже не об этом. Понятно что физик сможет как-то оплатить, но юрлицам-то кто оригинал счета пришлет, акт и счет-фактуру? А облака то строятся не для частного использования, в основном…
Кстати, Сити, насколько я знаю, вообще не позволяет платить по карточке через Интернет.
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
Неправда. У меня аккаунт на RackSpaceCloud, купленный с карты Visa УБРиР.
Единственная проблема — карта должна поддерживать транзакции без CVV кода.
Единственная проблема — карта должна поддерживать транзакции без CVV кода.
НЛО прилетело и опубликовало эту надпись здесь
Разрабатывается API для управления параметрами сервера.
Можете сделать «предсказание» роста нагрузки и т.п. и ваша программа будет сама увеличивать параметры.
Можете сделать «предсказание» роста нагрузки и т.п. и ваша программа будет сама увеличивать параметры.
> то он просто сдохнет?
скорее всего тормозить просто будет.
смотри, там в панели по процу не мегагерцы, а некие «гарантированные %». может и переживет, если остальные виртуалки в этот момент не будут много жрать.
> о это просто обычный VDS, а не облако.
ну я то же вижу не очень много отличий.
хотя управлять целиком вмашиной? может возможность сливать весь диск и запускать дома для тестов или на другой площадке? возможность ручками залить любую ось?
скорее всего тормозить просто будет.
смотри, там в панели по процу не мегагерцы, а некие «гарантированные %». может и переживет, если остальные виртуалки в этот момент не будут много жрать.
> о это просто обычный VDS, а не облако.
ну я то же вижу не очень много отличий.
хотя управлять целиком вмашиной? может возможность сливать весь диск и запускать дома для тестов или на другой площадке? возможность ручками залить любую ось?
не сдохнет, а будет тормозить, как обычно.
Не понял про мегагерцы и %. Вычислительная мощность не мегагерцами меряется, в принципе. Просто многие хостеры торгуют именно «мегагерцами», наверное думая что пользователям так понятнее, вот и выработался стереотип.
В hyper-V используется другой подход. Каждой машине выделяется определенный % от одного или нескольких ядер. (в нашем случае intel 55**, там несколько вариаций)
Возможность залить любую ось (если она поддерживает x86/x64) имеется.
Не понял про мегагерцы и %. Вычислительная мощность не мегагерцами меряется, в принципе. Просто многие хостеры торгуют именно «мегагерцами», наверное думая что пользователям так понятнее, вот и выработался стереотип.
В hyper-V используется другой подход. Каждой машине выделяется определенный % от одного или нескольких ядер. (в нашем случае intel 55**, там несколько вариаций)
Возможность залить любую ось (если она поддерживает x86/x64) имеется.
Если на сервере наступит хабраэффект то надо успеть добежать до панели управления и выкрутить все «ползунки» мощности вправо, а когда спадет — обратно.
Либо можно планировщик использовать, если заранее известно когда будет наплыв и сколько он будет продолжаться (например, когда реклама крутится обычно заранее можно предсказать рост посещаемости).
А программно — да, технически проблем нет, можно API открыть (веб-сервисы). Это будет в каком-то из следующих релизов
Либо можно планировщик использовать, если заранее известно когда будет наплыв и сколько он будет продолжаться (например, когда реклама крутится обычно заранее можно предсказать рост посещаемости).
А программно — да, технически проблем нет, можно API открыть (веб-сервисы). Это будет в каком-то из следующих релизов
ИМХО, подобная защита от хабраэффекта должна быть автоматической. Например, при загрузке CPU на 100% в течении 2 минут повышать мощность до границы вправо на 30 минут с одновременным оповещением по SMS. После чего, если не поступило одобрение от администратора, сдавать обратно.
Мы тоже так думаем. И хотим это сделать. Технически не проблема. Проблема как раз в том о чем вы пишете. такие автоматические изменения влекут увеличение счета клиенту, и нужен надежный способ подтверждения. Иначе потом многие клиенты будут считать что их обманывают и списывают деньги зря.
Разумеется, это должно быть всё в настройках: и лимиты, и время, и уведомления :)
Стоит просто сделать настройку типа «Auto Scale», в которой будет как раз такое — если включено, то автоматическое увеличение мощности будет происходить, если нет — все будет как обычно.
Но надо обязательно писать предупреждения БОЛЬШИМИ БУКВАМИ.
Так сделано на gandi.net, кстати, клевые ребята! :)
Но надо обязательно писать предупреждения БОЛЬШИМИ БУКВАМИ.
Так сделано на gandi.net, кстати, клевые ребята! :)
Да, gandi хороший функциональный набор. Работают с Xen. Но у них unix only.
И они дают мощность только юнитами добавлять и уменьшать. А каждый юнит это процессорная мощность +память+ диск+ трафик. Похоже на модель amazon ec2.
Мы даем возможность управлять всеми параметрами независимо друг от друга. В этой модели работают ребята в UK — весьма правильный сервис делают — fasthosts.co.uk
И они дают мощность только юнитами добавлять и уменьшать. А каждый юнит это процессорная мощность +память+ диск+ трафик. Похоже на модель amazon ec2.
Мы даем возможность управлять всеми параметрами независимо друг от друга. В этой модели работают ребята в UK — весьма правильный сервис делают — fasthosts.co.uk
это можно было бы решить, введяа для выбора параметров вместо одного ползунка диапазон — базовую квоту и максимальную, до которой можно повышать автоматом.
Мне все понравилось, но осталось 2-3 непонятных места:
— трафик, для более-менее серьезных бизнесов 2 Мбит/c гарантированно — это мало, нужны еще опции.
— как получить больше, чем 1 ip?
— тарификация почасовая? управление ресурсами возможно через какой-то api, чтобы это можно было автоматизировать?
— как измеряется нагрузка на инстанс, и можно ли этот параметр вообще получить?
А так — респект и уважуха.
— трафик, для более-менее серьезных бизнесов 2 Мбит/c гарантированно — это мало, нужны еще опции.
— как получить больше, чем 1 ip?
— тарификация почасовая? управление ресурсами возможно через какой-то api, чтобы это можно было автоматизировать?
— как измеряется нагрузка на инстанс, и можно ли этот параметр вообще получить?
А так — респект и уважуха.
Знаете, а дайте мне потестить, а?
Логин в вашей системе lolxek
Логин в вашей системе lolxek
— гарантированно 2 мбит не значит что их 2. Мы где то ранее выкладывали замеры ( и это любой может повторить), что в среднем получается 20-30. Гарантировать больше за данный прайс не можем, увы, а как платную опцию — прорабатываем вопрос уже.
— сколько угодно, по 50р за шт/мес
— Да, почасовая. API будет не в июньском релизе, а позже, но будет.
— Хороший вопрос, пока разве что зайти на машину и посмотреть график загрузки в task manager или свою утилиту там запустить для сбора интересующих данных.
— сколько угодно, по 50р за шт/мес
— Да, почасовая. API будет не в июньском релизе, а позже, но будет.
— Хороший вопрос, пока разве что зайти на машину и посмотреть график загрузки в task manager или свою утилиту там запустить для сбора интересующих данных.
Ладно, а трафик внутри облака быстрее этих 20-30 мбит/с?
И второй вопрос потупее — на два инстанса скорость во внешний интернет будет (примерно) вдвое больше, или канал режется на конкретного юзера?
И второй вопрос потупее — на два инстанса скорость во внешний интернет будет (примерно) вдвое больше, или канал режется на конкретного юзера?
внутри — 2 гбит/сек.
нет инстансов у нас, есть «эластичная» виртуалка.
То есть что у маленькой, что у большой виртуалки скорость в интернет совершенно одинаковая.
нет инстансов у нас, есть «эластичная» виртуалка.
То есть что у маленькой, что у большой виртуалки скорость в интернет совершенно одинаковая.
А на один договор можно будет повешать сразу несколько «эластичных» виртуалок? И собрать внутри облака кластерное решение, как вариант?
На один аккаунт можно повесить любое количество облачных серверов.
Вопрос как вы собираетесь реализовывать такой кластер т.к. каждый сервер является изолированным от других и представляет собой выделенную машину с собственным выделенным IP и пр. и объединяет их, в вашем случае только биллинг.
Вопрос как вы собираетесь реализовывать такой кластер т.к. каждый сервер является изолированным от других и представляет собой выделенную машину с собственным выделенным IP и пр. и объединяет их, в вашем случае только биллинг.
Кластерное решение, в смысле? Если NLB, то почему нет. Берете 2 или несколько виртуалок и поднимаете на них NLB. только прежде чем приступать, свяжитесь со службой техподдержки, вам же vlan надо будет отрезать.
С нетерпением жду результаты тестов и отзывы.
И действительно, осветите подробней вопрос дисковой подсистемы, ведь как известно — это одно из самых узких мест.
И действительно, осветите подробней вопрос дисковой подсистемы, ведь как известно — это одно из самых узких мест.
Я не понял, чем это отличается от обычной виртуальной машины, построенной на базе гипервизора, Xenа к примеру кроме того, что Вы оверселлите на памяти и никак не тарифицируете нагрузку на диски. А если 10 клиентов с минимальными параметрами захотят себе поставить фряху и UFS будет не по-детски насиловать диски, которые затянут за собой RAM. Продолжать рассказ о том, что происходит?
Поставлю я себе Linux к примеру, займу все пространство:
[alex@localhost ~]$ df -h
Файловая система Разм Исп Дост Исп% смонтирована на
/dev/sda5 12G 3,6G 7,7G 32% /
/dev/sda7 103G 33G 71G 32% /home
Допустим через Вашу панель увеличиваю контейнер на 100Gb. Что произойдет? sda расширится?
Поставлю я себе Linux к примеру, займу все пространство:
[alex@localhost ~]$ df -h
Файловая система Разм Исп Дост Исп% смонтирована на
/dev/sda5 12G 3,6G 7,7G 32% /
/dev/sda7 103G 33G 71G 32% /home
Допустим через Вашу панель увеличиваю контейнер на 100Gb. Что произойдет? sda расширится?
> Что произойдет? sda расширится?
скорее всего как на обычном lvm — расширится.
делай resise2fs (или какая у тебя fs) и получай новый объем.
скорее всего как на обычном lvm — расширится.
делай resise2fs (или какая у тебя fs) и получай новый объем.
Зависит от уровня виртуализации ФС. Поскольку здесь скорее всего на уровне HVM, то увеличится виртуальный физический винт. Разделы придется самому тягать. Особенно интересно, что будет при уменьшении :D
А уменьшать storage, увы, нельзя :-( Там ползунок соответствующий просто влево не двинется ниже текущего значения. Ибо действительно, как уменьшить занятый диск пока не придумано.
в линуксах уменьшить большинство fs можно.
как? данные пользователя система будет стирать автоматически?
нет, сначала мы ресайзим разделы, если на разделе достаточно свободного места.
ну примерно как партишенмеджиком, если вам так понятнее.
потом можно обрезать диск на неиспользуемое место.
ну примерно как партишенмеджиком, если вам так понятнее.
потом можно обрезать диск на неиспользуемое место.
естественно имеется ввиду, что пользователь сначала уменьшил/удалил свои разделы, а потом уже отрезал ненужный кусок диска.
данные пользователя операционная система стирать не будет. файлы, вылезающие за границы нового размера будут перемещены ближе к началу диска; если же новый размер будет меньше чем объём уже имеющихся файлов — уменьшение будет невозможно.
Круто, у нас такого нет (пока нет :-) )
это скриншот какого-то хелпа или гуевой мордочки. сам ресайз делается консольными командами естетсвенно. тут просто видно, что большинство fs можно уменьшить. а там и диск отрезать обратно.
что собственно иногда приходится делать при постепенном переползании с одной lvm на другую.
что собственно иногда приходится делать при постепенном переползании с одной lvm на другую.
easy_john прав, обычный скрин из gparted, приведён просто в качестве примера того, какие операции для каких ФС поддерживает сферический линукс в вакууме.
кстати, если для вас это сложно, можно нарезать каждые 10г отдельными девайсами. проще гранулировать, для большего объема внутри виртуалки не сложно делать страйпы.
На Hyper-V нельзя оверселлить на памяти. Dynamic Memory только-только появляется, и то она не позволит именно оверселлить, как overcommit в vmware.
Я, к сожалению, так и не услышал ответа от автора. Увы, даже для меня как администратора, задача увеличить размер корневого раздела ext3 или того хуже ufs не является тривиальной. А добавить в контейнер любой дурак может.
да какой тут может быть другой ответ? увеличивается вдиск, тебе видно как увеличившийся в размере винт. добавляй там разделы или меняй размеры существующих.
а зачем менять размер корневого? хорошей практикой считается делать корень небольшой и держать на нем только минимум необходимый для загрузки, остальные большие вещи выносить минимум на другие разделы, лучше на lvm, который и подвинуть, и ресайзнуть, и перенести на другой физ.диски, и порезать ломтиками проще простого.
а зачем менять размер корневого? хорошей практикой считается делать корень небольшой и держать на нем только минимум необходимый для загрузки, остальные большие вещи выносить минимум на другие разделы, лучше на lvm, который и подвинуть, и ресайзнуть, и перенести на другой физ.диски, и порезать ломтиками проще простого.
Каков список готовых образов? Есть ли там, например, Gentoo с установленными модулями дисковой и сетевой подсистемы, но без Apache/MySQL/etc?
Есть ли возможность менять параметры машины по суточному/недельному расписанию? (Из описания понял только, что есть возможность отложенного изменения параметров).
Можно ли «подложить» серверу загрузочный ISO-образ?
Есть ли возможность менять параметры машины по суточному/недельному расписанию? (Из описания понял только, что есть возможность отложенного изменения параметров).
Можно ли «подложить» серверу загрузочный ISO-образ?
Список такой же как у обычных hyper-V тарифов
www.parking.ru/vds/hyperv/default.aspx?info=1#os
По расписанию. Можно заранее подготовить несколько конфигураций и дату-время применения каждой из них. Пока будет так.
Свой ISO-образ можно, по ссылке выше есть ссылки как именно то делается. Для SlideBar это делается точно так же
www.parking.ru/vds/hyperv/default.aspx?info=1#os
По расписанию. Можно заранее подготовить несколько конфигураций и дату-время применения каждой из них. Пока будет так.
Свой ISO-образ можно, по ссылке выше есть ссылки как именно то делается. Для SlideBar это делается точно так же
1) Список образов пока в основном в основном содержит разные сборки Windows Server 2008\2003 оптимизированные для работы в разных сценариях.
Из*nix на данные момент есть образы: debian-40r6-i386-netinst, Fedora-10, FreeBSD-6.4, gentoo 2008.0, openSUSE-11.1, ubuntu-8.10
2) Возможность менять менять по расписанию будет, но не в июньском релизе
3) Да, можно подключать сторонние образы
Из*nix на данные момент есть образы: debian-40r6-i386-netinst, Fedora-10, FreeBSD-6.4, gentoo 2008.0, openSUSE-11.1, ubuntu-8.10
2) Возможность менять менять по расписанию будет, но не в июньском релизе
3) Да, можно подключать сторонние образы
да, сколько виртуалок можно иметь на аккаунте в указанных пределах диска/памяти?
можно ли купить пакет скажем на 3 одновременно запущенные вируталки, а на диске иметь 5-10 образов и выключать/включать когда надо?
можно ли купить пакет скажем на 3 одновременно запущенные вируталки, а на диске иметь 5-10 образов и выключать/включать когда надо?
Для каждой виртуалки отдельно выставляются все лимиты «ползунками», то есть у нас нет такого понятия как «пакет из виртуалок» внутри общей квоты.
По второму вопросу — у нас это называется «заморозка» виртуалки, когда она выключается но конф. файл и VHD остаются (тарифицируются по минимуму). И соответственно ее можно в любой момент запустить. Это пока в планах на следующий релиз, ближе к концу лета.
По второму вопросу — у нас это называется «заморозка» виртуалки, когда она выключается но конф. файл и VHD остаются (тарифицируются по минимуму). И соответственно ее можно в любой момент запустить. Это пока в планах на следующий релиз, ближе к концу лета.
понятно.
я предложил бы вам в рамках купленного места позволять делать сколько угодно виритуалок на одном аккаунте, а количество включенных — лимитировать ценой/отдельным слайдером.
я предложил бы вам в рамках купленного места позволять делать сколько угодно виритуалок на одном аккаунте, а количество включенных — лимитировать ценой/отдельным слайдером.
«у нас это называется «заморозка» виртуалки, когда она выключается но конф. файл и VHD остаются (тарифицируются по минимуму). И соответственно ее можно в любой момент запустить. Это пока в планах на следующий релиз, ближе к концу лета.» — только что выяснил, что этого как не было почти год назад, так этого и нет.
В свете недавних событий, что будет, если милиция захочет конфисковать сервера, на которых крутится виртуалка одного из ваших клиентов?
Хецнер — наше все :)
Бо у этого облака цены — космос. Слайдеры — это конечно прикольно, но минимально допустимые для своего проекта 1024М/1ядро/30%/60Гб — посчиталось 2000 руб/мес. Для пиков придется повышать. В плане процессора особенно.
В общем, тут как чипсы: продать 1 картошину по цене килограмма :))
Бо у этого облака цены — космос. Слайдеры — это конечно прикольно, но минимально допустимые для своего проекта 1024М/1ядро/30%/60Гб — посчиталось 2000 руб/мес. Для пиков придется повышать. В плане процессора особенно.
В общем, тут как чипсы: продать 1 картошину по цене килограмма :))
в хецнере на десктопах все лежит. дохнуть будет — восстановить никак.
ну и вроде выше говорят, что тут выбор параметров больше, чем где-либо на вдс.
ну и вроде выше говорят, что тут выбор параметров больше, чем где-либо на вдс.
Для этого бэкап есть ;)
Кто вам мешает raid 10 делать? Дохнет остальное — диски переставляют в другой системник, но этого за 3 года ни разу не случилось. Да и диски живи.
при чем тут рейд? я имел ввиду случай хостинг.уа и подобные.
Вы вполне конкретному комментарию про Hetzner комментарий оставили, вот при чём.
выход целой машины из строя может случится у любого хостера. тем более, у такого, который использует десктопное оборудование. как раз в этом облачный хостинг должен давать преимущества в легком запуске упавшей машины в любом другом произвольном месте.
Решение на Windows не считаю хорошим решением, и многие уже плевались тут о технологии виртуализации как Hyper-V R2, что будут вырубать когда захотят и тому подобное…
Ждемс гневных топиков от клиентов :-) где-то через пару месяцев.
Ждемс гневных топиков от клиентов :-) где-то через пару месяцев.
и многие уже плевались тут о технологии виртуализации как Hyper-V R2, что будут вырубать когда захотят и тому подобное…
А с этого момента, пожалуйста, поподробнее…
комментарии проскакивали от пользователей, мол знают они что такое держать VPS на Hiper-V R2…
моё личное мнение, production решение на винде строят только те, кому потом это не поддерживать… либо те, кто боиться слова terminal :)
если production решение, то точно не Windows. Если решение на коленке, то ради бога, Windows быстро, доступно, и легко.
p.s. за годы работы с Windows, появилась ненависть к недосистеме. Другое дело BSD или OS X
моё личное мнение, production решение на винде строят только те, кому потом это не поддерживать… либо те, кто боиться слова terminal :)
если production решение, то точно не Windows. Если решение на коленке, то ради бога, Windows быстро, доступно, и легко.
p.s. за годы работы с Windows, появилась ненависть к недосистеме. Другое дело BSD или OS X
комментарии проскакивали от пользователей, мол знают они что такое держать VPS на Hiper-V R2…
И чем же в этом плане Hyper-V хуже тех же VMware или Citrix? Да еще и R2, в котором есть live migration и появится со дня на день динамическое распределение памяти?
моё личное мнение, production решение на винде строят только те, кому потом это не поддерживать… либо те, кто боиться слова terminal :)
Я слова terminal не боюсь, более того — мне нравятся терминальные решения. Особенно в том виде, в каком они появились на Windows Server 2008 R2.
если production решение, то точно не Windows. Если решение на коленке, то ради бога, Windows быстро, доступно, и легко.
p.s. за годы работы с Windows, появилась ненависть к недосистеме. Другое дело BSD или OS X ответить
Обосновать сможете? Или пора на хабре кроме тега \<irony\> вводить еще тег \<holywar\>?
НЛО прилетело и опубликовало эту надпись здесь
с другой стороны, если придется отдавать одну машину — с нее мигрируем все виртуалки, кроме нужной, нужную размещаем на локальном сторе и отдаем.
НЛО прилетело и опубликовало эту надпись здесь
если есть больше одного датацентра, то приналичии желания можно сделать структуру вирт.машин устойчивой к отключению одного из датацентров целиком. причем прозрачно для клиентов. отключенные вмашины сами поднимутся в других дц.
но это дорого. обычно те, кому нужна такая надежность сами строят распределенные дц.
но это дорого. обычно те, кому нужна такая надежность сами строят распределенные дц.
Межлу датацентрами получить такие каналы, которые нужны для связности узлов кластера технически можно, но по экономике на выходе будет такой прайс, что на «массовом рынке» никто не купит.
Геокластеры — это все-таки из другой категории решений. В т.ч. ценовой.
Мы подобные решения поддерживаем, для нескольких клиентов, на базе двух из трех наших датацентров. Но там совершенно другие решения, с другими (на порядки) цифрами нагрузки (в меньшую сторону, разумеется), но с повышенными требованиями по отказоустойчивости на случай непредвиденных обстоятельств.
Геокластеры — это все-таки из другой категории решений. В т.ч. ценовой.
Мы подобные решения поддерживаем, для нескольких клиентов, на базе двух из трех наших датацентров. Но там совершенно другие решения, с другими (на порядки) цифрами нагрузки (в меньшую сторону, разумеется), но с повышенными требованиями по отказоустойчивости на случай непредвиденных обстоятельств.
да бросьте, свою оптику кинуть до соседнего района не так уж дорого.
скорости там получаются любые нужные, хоть 10g по каждому волокну.
синхронизация сторов то же не сложно делается (правда я это на fc наблюдал, но думаю iscsi не сложнее). в одной из контор делали такой кластер, причем для высоконагруженных баз. все отлично работало.
скорости там получаются любые нужные, хоть 10g по каждому волокну.
синхронизация сторов то же не сложно делается (правда я это на fc наблюдал, но думаю iscsi не сложнее). в одной из контор делали такой кластер, причем для высоконагруженных баз. все отлично работало.
Отключится один датацентр и ляжет «своя оптика». Полноценный геокластер, полностью отказоустойчивый, надо строить на полностью независимых датацентрах, в разных AS, с разными аплинками. И тогда встает задачи синхронизации через «облако», ну через public internet то бишь, а не через «свою оптику».
У нас между нашими узлами в двух независимых ДЦ quick migration работает, но не live migration. (для live migration между ДЦ надо действительно, свою выделенную оптику класть)
То есть машинки, технически, могут переползти на другой ДЦ, но время переползания и их недоступности в этот период определяется скоростью каналов между ДЦ.
У нас между нашими узлами в двух независимых ДЦ quick migration работает, но не live migration. (для live migration между ДЦ надо действительно, свою выделенную оптику класть)
То есть машинки, технически, могут переползти на другой ДЦ, но время переползания и их недоступности в этот период определяется скоростью каналов между ДЦ.
естественно в обоих точках присутствия свои каналы. а для своих нужд — оптика между ними.
у нас была сделана синхронизация сторов — данные пишутся на оба (локальный и удаленный) а читаются с ближайшего. соответственно один из дц можно уничтожить полностью и ничего не пропадет.
если мы не синхронизируем память между хостами в разных дц, то будет выглядеть как рестарт упавшей. если для каких-то важных машин и память синхронизируем, то вообще ничего не будет заметно.
у нас была сделана синхронизация сторов — данные пишутся на оба (локальный и удаленный) а читаются с ближайшего. соответственно один из дц можно уничтожить полностью и ничего не пропадет.
если мы не синхронизируем память между хостами в разных дц, то будет выглядеть как рестарт упавшей. если для каких-то важных машин и память синхронизируем, то вообще ничего не будет заметно.
Конечно, конечно… омон уже вошел и укладывает весь персонал на пузо, а ваши виртуалки все мегрируют и мигрируют… как энерджайзер — вечно.
p.s. если уж 'по закону' мигрировать, то на 'личные ноутбуки персонала' с шифрованием и т.д. только боюсь вайфай и 3g не понравится клиентам :)
p.s. если уж 'по закону' мигрировать, то на 'личные ноутбуки персонала' с шифрованием и т.д. только боюсь вайфай и 3g не понравится клиентам :)
Прелесть облака в этом случае шикарна (awesome =))) ) — омон неглуп, понимает, что за одно может и свои гос. или аффилированные с ним ресурсы отключить.
Смущает фраза
"— неограниченный трафик"
Поясните пожалуйста. А за одно и что за каналы используются.
"— неограниченный трафик"
Поясните пожалуйста. А за одно и что за каналы используются.
Как было указано выше подключение 100 мбит, из них гарантировано не менее 2х. Реально получается около 20-30, подробнее написано в нашем блоге.
Простите. Я наверное не очень понятно вопрос задал.
Про скорость все понятно (от 2 до примерно 25Мб/с), но я спросил про безлимитный трафик. Ведь всем известно что такого не существует. ТРифик либо платный, либо в каких то соотношениях, либо после какого то предела его режут (есть еще варианты).
Про каналы (моя ошибка) я хотел узнать кто предоставляет вам подключение к интернету, на каких скоростях, есть ли резервные каналы, присутствуете ли вы на IX.
Про скорость все понятно (от 2 до примерно 25Мб/с), но я спросил про безлимитный трафик. Ведь всем известно что такого не существует. ТРифик либо платный, либо в каких то соотношениях, либо после какого то предела его режут (есть еще варианты).
Про каналы (моя ошибка) я хотел узнать кто предоставляет вам подключение к интернету, на каких скоростях, есть ли резервные каналы, присутствуете ли вы на IX.
Трафик полностью безлимитный, без соотношений это осуждалось уже здесь: habrahabr.ru/company/parking/blog/89978/
Про каналы и инфраструктуру вы можете прочитать здесь parking.ru/about/
Про каналы и инфраструктуру вы можете прочитать здесь parking.ru/about/
НЛО прилетело и опубликовало эту надпись здесь
А в чем собственно инновация?
Судя по информации на сайте обычные VDS, которые может создавать сам пользователь из выделенных ресурсов.
Это не является облаком…
Судя по информации на сайте обычные VDS, которые может создавать сам пользователь из выделенных ресурсов.
Это не является облаком…
НЛО прилетело и опубликовало эту надпись здесь
С первым «облаком» всех!
Ребят, жутко импонирует ваш классный, солнечный дизайн.
Нашел косяк с версткой: если выкрутить в самое правое положение, а потом сузить ширину экрана, то получим следующее:
Главный вопрос: знали ли вы об этом косяке или нет?
Нашел косяк с версткой: если выкрутить в самое правое положение, а потом сузить ширину экрана, то получим следующее:
Главный вопрос: знали ли вы об этом косяке или нет?
вообще-то первый — это Оверсан
НЛО прилетело и опубликовало эту надпись здесь
Только вот на сколько у вас дома будет гарантирован интернет-канал, электричество?
НЛО прилетело и опубликовало эту надпись здесь
время простоя при обрывах канала? потери бизнеса от простоя сервиса?
НЛО прилетело и опубликовало эту надпись здесь
если его уж совсем не жалко… :)
в домашних сетях может быть много неприятностей. обрыв могу чить за пол дня, а могут и 40 суток. внешний ip могут поменять на другой диапазон, вечером каналы могу проседать так, что от открытия сайта снаружи только негатив.
в общем оно конечно можно, но надо быть готовым к любым неожиданным простоям.
в домашних сетях может быть много неприятностей. обрыв могу чить за пол дня, а могут и 40 суток. внешний ip могут поменять на другой диапазон, вечером каналы могу проседать так, что от открытия сайта снаружи только негатив.
в общем оно конечно можно, но надо быть готовым к любым неожиданным простоям.
НЛО прилетело и опубликовало эту надпись здесь
я по личному опыту пишу.
самой старой моей домонетке лет 7, и они уже 2 раза меня внешние диапазоны (то ли ссорились с провайдером, то ли переходили на более выгодных)
40 суток это пару лет назад корбина восстанавливала обрыв линка на дом (около 20-30 клиентов). правда это самый долгий раз, в остальные разы за 3-7 дней справлялись. ну да, согласно договору дали потом полтора месяца бесплатно. слабоватая компенсация. но чего-то большего от домонеток не получить, а канал от нормального провайдера для физика стоит нереально.
в другом доме слишком новый провайдер пару недель не мог настроить нормальный проброс ftp, плюс у него был какой-то глюк на роутере, пришлось делать дампы хождения пакетов, что бы они заметили косяк. инет все это время работал абы как.
теперь я перестраховываюсь — беру два провайдра, подключающих по разным технологиям.
самой старой моей домонетке лет 7, и они уже 2 раза меня внешние диапазоны (то ли ссорились с провайдером, то ли переходили на более выгодных)
40 суток это пару лет назад корбина восстанавливала обрыв линка на дом (около 20-30 клиентов). правда это самый долгий раз, в остальные разы за 3-7 дней справлялись. ну да, согласно договору дали потом полтора месяца бесплатно. слабоватая компенсация. но чего-то большего от домонеток не получить, а канал от нормального провайдера для физика стоит нереально.
в другом доме слишком новый провайдер пару недель не мог настроить нормальный проброс ftp, плюс у него был какой-то глюк на роутере, пришлось делать дампы хождения пакетов, что бы они заметили косяк. инет все это время работал абы как.
теперь я перестраховываюсь — беру два провайдра, подключающих по разным технологиям.
Я не знаю кто первый вышел, но например на VmWare я на днях обзвонил троих действующих. SLA всех внушает чёткую уверенность, что никакой надёжности не будет. Так же и для данного случая —
«Ответственность Компании
1% от месячной абонентской стоимости за 1 час (берется общая месячная стоимость услуги за полный календарный месяц, предшествующий данному), но не более 50% месячной абонентской стоимости услуги»
Аналогичные западные облака (GoGrid например) обещают 10000%. В десять тысяч раз больше… Ну и простой час в месяц — что-то многовато. Собственно это не облако, а просто парк серверов под виртуалки с дешёвым хранилищем.
«Ответственность Компании
1% от месячной абонентской стоимости за 1 час (берется общая месячная стоимость услуги за полный календарный месяц, предшествующий данному), но не более 50% месячной абонентской стоимости услуги»
Аналогичные западные облака (GoGrid например) обещают 10000%. В десять тысяч раз больше… Ну и простой час в месяц — что-то многовато. Собственно это не облако, а просто парк серверов под виртуалки с дешёвым хранилищем.
А вы внимательно читали их SLA? Особенно пункты D. Limitations и XII. CREDIT LIMITATIONS если посмотреть эти условия то вам 10000% компенсируют только до определенного предела, да и скорость канала к примеру нужно еще доказать, может это у вас канал слабый до сервера?
Там куча есть ограничений чтобы вам эти 10000% и 100% UPTIME только на бумаге показать.
Не говоря уже о том что вы находитесь в другой стране и никакие законы России к ним не применимы и если что компенсации вы не дождетесь.
Там куча есть ограничений чтобы вам эти 10000% и 100% UPTIME только на бумаге показать.
Не говоря уже о том что вы находитесь в другой стране и никакие законы России к ним не применимы и если что компенсации вы не дождетесь.
Пункт D говорит, что сервис не отвечает за клиентские каналы и проблемы из-за DDOS. А что, Вы ожидали что они Вам проведут выделенную линию от их сервера? Наивныииии :) А вот что такое uptime — написано. И вполне конкретно.
При чём тут законы России?
В SLA чётко прописаны ограничения производительности и доступности. Если сервер час будет висеть по вине датацентра или недоступен по сети — покажите, какие условия SLA не позволят компенсировать это?
При чём тут законы России?
В SLA чётко прописаны ограничения производительности и доступности. Если сервер час будет висеть по вине датацентра или недоступен по сети — покажите, какие условия SLA не позволят компенсировать это?
Жесть какая 4 ядра на 8 гигов — 11к в мес. это цена выделенного сервака, который я не буду ни с кем делить. причем цена виделеного сервака у меня 6900.
Удачи.
Удачи.
у нас 4 ядра по 1 Ghz и 8 гигов по 5900 в месяц. при чем это цена сервака, который ты не будешь ни с кем делить. э
Мне кажется говоря о виртуальном сервере или виртуальном хостинге многие отождествляют это с «сервером, на котором поднята куча виртуалок, и этот сервер мне придетс с кем-то делить». Так вот технологии ушли далеко вперед. HiperV и Vmware предоставляют гарантированные мощности до 100%. Когда то мы впервые задумались о бизнесе с «публичными облаками» и обратили внимание на Vmware. Так вот, что бы организовать виртуальную инфраструктуру, пригодную для сдачи другим пользователям надо иметь специальное (одобренное вендером по виртуализации) оборудование (брендовые сервера, хранилища данных, можно организовать кластеры). А это не дешево. Цены Sitebara оправданы, ибо виртуальные сервера не ломаются и предлагают гарантированный уровень производительности. А процессорную мощность выделенного сервака за 6900 вы используете в среднем на 10-15%, платя при это за все 100.
Мне кажется говоря о виртуальном сервере или виртуальном хостинге многие отождествляют это с «сервером, на котором поднята куча виртуалок, и этот сервер мне придетс с кем-то делить». Так вот технологии ушли далеко вперед. HiperV и Vmware предоставляют гарантированные мощности до 100%. Когда то мы впервые задумались о бизнесе с «публичными облаками» и обратили внимание на Vmware. Так вот, что бы организовать виртуальную инфраструктуру, пригодную для сдачи другим пользователям надо иметь специальное (одобренное вендером по виртуализации) оборудование (брендовые сервера, хранилища данных, можно организовать кластеры). А это не дешево. Цены Sitebara оправданы, ибо виртуальные сервера не ломаются и предлагают гарантированный уровень производительности. А процессорную мощность выделенного сервака за 6900 вы используете в среднем на 10-15%, платя при это за все 100.
нет я использую 80-90 проц. и очень часто. и что вы катаете на этих ядрах.? ну просто интересно., базы есть? ну под 10-15 лямов записей. ну там, сайтов 200 примерно ) да?
На этих ядрах катается: биллинг, развернуты SBS майкрософтовский (один из примеров организации виртуального офиса), базы Oracle недавно «поселились». Я конечно понимаю, что для многих 10-15 млн. записей для виртуального сервера это нонсен. Сложилось некое мнение о том, что виртуальные сервера не предназначены для серьёзных нарузок. Эти времена давно ушли, судя по тому, какую инфраструктуру строят в облаках.
хм) может я реально возму свои слова обратно. а скажите сколко пользователелй работает на облаке? сейчас обновременно
Пользователи это достаточно грубый показатель. Получается пальцем в небо. Можно уточнить каких пользователей?
Например, у нас располагается один сайт, на который ходят до 3-4 тыс. пользователей в день, а есть инфраструктура под 1С, с которой работает 2 пользователя.
Например, у нас располагается один сайт, на который ходят до 3-4 тыс. пользователей в день, а есть инфраструктура под 1С, с которой работает 2 пользователя.
Не понимаю, как можно было допустить такое количество пунктуационных ошибок на одном сайте.
Уважаемые хабровчане, прошу прощения, что вот так внезапно врываюсь в вашу конструктивную беседу по поводу Slidebar'a. Но, все-таки, если быть верным — первым в России «публичное облако» предоставила компания ИТ-ГРАД «VMware-хостинг» (http://www.it-grad.ru/services/vmware-hosting) ещё в 2008 году. Сервис запущен и уже работает.
Тоже не фонтан. Например, при 98.9>availability, компенсация 20%, стоимость виртуального сервера 2x3Ghz, 4 Gb RAM, 80 Gb HDD при надёжности меньше 99% будет 5050*0.80=4040 рублей. В два раза дороже аналогичного по доступности и более навороченного сервера одного известного германского провайдера. Дорого очень, если в табличку сравнения совокупной стоимости владения поставить не покупаемый, а арендуемый сервер — будет очень заметна высокая стоимость владения для Ваших серверов.
Как мне кажется, VmWare для такого хостинга непригодна — слишком дорого.
Как мне кажется, VmWare для такого хостинга непригодна — слишком дорого.
98.9>availability уже в истории, как и компенсация 20%. В моде сейчас большая доступность и компенсации. А стоимость владения сервером вы как считали? просто интересно, что за табличка, может и мне она пригодится? Мы не раз сталкивались со странным алгоритмом подсчета владения сервером, у каждого он разный, при чем чувствуется русский менталитет: «а я дома поставлю, а я админить его за 5 рублей могу, а комплектующие я за 10 рублей куплю, и ломаться он не будет». Может быть мы не привыкли платить за качественные решения? Это не упрек, просто такая ситуация с хостингом в России.
цифры взяты от it-grad.ru. И они, кстати, лучше, чем у других отечественных VmWare хостеров. А таблица — тоже от it-grad.ru — www.it-grad.ru/services/vmware-hosting/calculator.
Так вот, арендуемый сервер — а именно с ним и стоит сравнивать арендуемую виртуальную машину, — обойдётся в два раза дешевле при гораздо более высоких показателях производительности и больее навороченной комплектации в плане дисков и памяти. Его не надо «админить», «ставить дома», «покупать комплектующие». Это не упрёк, просто такая ситуация с хостингом на западе. И я очень огорчён, что в России она другая — хотя и в России аналогичные сервера дешевле чем виртуальные на VmWare.
Так вот, арендуемый сервер — а именно с ним и стоит сравнивать арендуемую виртуальную машину, — обойдётся в два раза дешевле при гораздо более высоких показателях производительности и больее навороченной комплектации в плане дисков и памяти. Его не надо «админить», «ставить дома», «покупать комплектующие». Это не упрёк, просто такая ситуация с хостингом на западе. И я очень огорчён, что в России она другая — хотя и в России аналогичные сервера дешевле чем виртуальные на VmWare.
Если смотреть на «классические облака», то должно присутствовать как минимум несколько вещей:
— концепция Pay-as-you-go, т.е. вы платите только тогда когда услуга вам необходима, только в нужном вам объеме за необходимы промежуток времени
— возможность гибко и просто наращивать и убавлять необходимые ресурсы, будь то панель управления или же API, но эластичность для «облака» это вещь обязательная
— третий компонент это масштабируемая отказоустойчивая инфраструктура, использующая технологии кластеризации.
Так вот VMware vSphere стала соответвовать этим параметрам и приобрела статус «облачной» только с 4-й версии релиз которой состоялся 29 апреля 2009, так что ваши доводы о запуске облака в 2008 году не совсем точны.
Так же хочу сделать небольшую ремарку про нашу собственную инфраструктурную облачную платформу Parking Cloud, про кторую был задан первый вопрос в этой ветке. Я не буду раскрывать всю информацию, но могу сказать что в нее уже включены или же находятся в разработке следующие «облачные компоненты»: IaaS (slidebar.ru), SaaS (Можете найти сервисы у нас на сайте и на SaaSCatalog.ru), а так же пока не ананосированные для широкой публики компоненты PaaS и DaaS. И все это работатет на базе нашей «облачной» инфраструтуры и использует специальные API для управления ресурсами, работой с биллингом и системой мониторинга и провижининга.
— концепция Pay-as-you-go, т.е. вы платите только тогда когда услуга вам необходима, только в нужном вам объеме за необходимы промежуток времени
— возможность гибко и просто наращивать и убавлять необходимые ресурсы, будь то панель управления или же API, но эластичность для «облака» это вещь обязательная
— третий компонент это масштабируемая отказоустойчивая инфраструктура, использующая технологии кластеризации.
Так вот VMware vSphere стала соответвовать этим параметрам и приобрела статус «облачной» только с 4-й версии релиз которой состоялся 29 апреля 2009, так что ваши доводы о запуске облака в 2008 году не совсем точны.
Так же хочу сделать небольшую ремарку про нашу собственную инфраструктурную облачную платформу Parking Cloud, про кторую был задан первый вопрос в этой ветке. Я не буду раскрывать всю информацию, но могу сказать что в нее уже включены или же находятся в разработке следующие «облачные компоненты»: IaaS (slidebar.ru), SaaS (Можете найти сервисы у нас на сайте и на SaaSCatalog.ru), а так же пока не ананосированные для широкой публики компоненты PaaS и DaaS. И все это работатет на базе нашей «облачной» инфраструтуры и использует специальные API для управления ресурсами, работой с биллингом и системой мониторинга и провижининга.
У публичного сервиса нет публичного прайса? Или я не туда смотрю? www.it-grad.ru/services/vmware-hosting
А вообще — пусть будет больше облаков, хороших и разных :-)
А вообще — пусть будет больше облаков, хороших и разных :-)
вопрос на засыпку — почему на слайдерах только один сервер?
то есть я хотел сказать почему только 4 ядра??
и память 8192МБ max??? память одного сервера /10VE что ли?
и процессоры сервера /2VE так?
типа бизнес модель swoopo?
смотрю я на это и все понять не могу где подвох то???
таже конфета в новой обертке…
и память 8192МБ max??? память одного сервера /10VE что ли?
и процессоры сервера /2VE так?
типа бизнес модель swoopo?
смотрю я на это и все понять не могу где подвох то???
таже конфета в новой обертке…
ru.wikipedia.org/wiki/Облачные_вычисления
Последнее изменение этой страницы: 08:59, 22 мая 2010.
прикольно как вы себя в один ряд с амазон воткнули…
Последнее изменение этой страницы: 08:59, 22 мая 2010.
прикольно как вы себя в один ряд с амазон воткнули…
parking.ru/vds/hyperv/
ну в принципе да, так и есть…
я уж обрадовался, начал истерично читать, и слайд дёргать, но в подсознании все равно не поверил…
ладно пошёл спать…
ну в принципе да, так и есть…
я уж обрадовался, начал истерично читать, и слайд дёргать, но в подсознании все равно не поверил…
ладно пошёл спать…
почему не многие хостеры дают таких услуг? потому что просто еще не дают, ответ очевиден…
это обычный ВПС с подключеным апи которое позволяет клиенту не биться нервно плодя тикеты и забивая телефон суппорта в случае повышения нагрузок или их понижения, можно самому перенастроить сервер, он рестартанет(только ваш VE) и все, поехали, новый конфиг, идея настолько стара, по сути это «новое» маркетинговое решение для старого виртуального сервера, я вот только не понимаю почему я немогу взять 30-50Гб например? почему немогу 70? жалко??? почему 4 ядра, не 4 процессора???
у меня просто спортивный интерес — какие диски используете SAS300, 600, 10K, 15K?
это обычный ВПС с подключеным апи которое позволяет клиенту не биться нервно плодя тикеты и забивая телефон суппорта в случае повышения нагрузок или их понижения, можно самому перенастроить сервер, он рестартанет(только ваш VE) и все, поехали, новый конфиг, идея настолько стара, по сути это «новое» маркетинговое решение для старого виртуального сервера, я вот только не понимаю почему я немогу взять 30-50Гб например? почему немогу 70? жалко??? почему 4 ядра, не 4 процессора???
у меня просто спортивный интерес — какие диски используете SAS300, 600, 10K, 15K?
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Slidebar – первое публичное «облако» в России