Как стать автором
Обновить

Комментарии 27

На какой минимальной инфраструктуре имеет смысл разворачивать продакшен опенстек? То есть не чтобы поиграться и посмотреть, а чтобы запустить серьезный проектик.
Мне тоже интересно, ставил через RDO, работало хорошо. Но вот дальше?
У меня в продакшне около тысячи виртуалок, запущенных простым скриптом, непосредственно запускающим qemu-system-x86_64.

Это ничего не значит, просто пример использования инструмента и его масштаб.
С сетями у этих виртуалок все хорошо? Нейтрон очень сильно нагружается при таком количестве
Зависит от потребностей. У меня планируется старт с 5 железок — 1 нода Fuel, 1 — контроллер OpenStack, 3 — ноды с виртуалками и ceph. В случае необходимости потом буду доращивать ноды. + InfiniBand свитч между нодами со стораджем.
А кто-нибудь кроме каких-то тестов и локалхостов реально использует OpenStack? Мне очень интересно кто именно, для чего конкретно. Желательно сразу с ticker symbol на Nasdaq для более предметного разговора и отсева стартапов.
Недавно Selectel запустили в открытое тестирование полноценное облако на базе OpenStack. И уже давно используют его для облачного хранилища.
Любопытно, сколько там своего, «селектеловского» напильника.
Я специально написал «кроме каких-то тестов». Интересует полноценный прод. Скажем, 1000 виртуалок в сутки создаётся/удаляется в сумме.
Dreamhost, Softlayer, Webzilla, это то что первое в голову приходит. Про Селектел вам уже написали, хотя и в режиме «бета», но нагрузки уже уровня «продакшн».
Основной юзер опенстека это по прежнему rackspace, из него он по моему и вышел.
Насколько мне известно, в проде Rackspace использует CloudStack, хотя участие в разработке OpenStack принимает.
Может раньше они его называли cloudstack, сейчас они говорят у нас все на www.rackspace.com/cloud/openstack/
Я не поленился и пообщался с продажниками Rackspace. Удивительно, но это так. Rackspace действительно использует — по их словам по крайней мере — OpenStack для своего «публичного клауда». Что вообще порождает больше вопросов, чем даёт ответов, но на многие вопросы ответа мы, скорее всего, не узнаем. В любом случае, рад за OpenStack, наконец-то где-то в проде виден. Это большой прогресс.
Насколько я помню историю он изначально был сделан в ракспейсе, потом они открыли сырцы и подключились другие и начался опенсорс.
HP Cloud на OpenStack сделан. И внутреннее облако тоже.
А с ceph не сталкивались(?), что если падает osd, который был primary для какой-либо pg из заданного ceph pool, то нельзя прочитать/записать на этот pool пока osd не уйдет в состояние down(mon osd report timeout = 900 c ). Проще говоря пул становится недоступен на 900 секунд, для теста уменьшил этот параметр до 60 секунд и получаю ложный переход osd нод в down.
Описание «OpenStack вкратце» местами способно ввести в заблуждение. Keystone практически не занимается авторизацией, и уж тем более не компонентов, а Nova не provision-ит виртуалки самостоятельно. Juno уже вышел, кстати, а Ironic перенесли на Kilo.

OpenStack это конструктор, интерфейс над существущими технологиями виртуализации, хранения данных, предоставления доступа в сеть. Просто так сложилось, что его чаще всего используют в связке KVM + Open vSwitch. API, на мой вкус, довольно кривое, чего стоит одна эпопея с «project» vs «tenant» в терминологии.

Надеяться, что конструктор сам (ну или по щучьему веленью) соберётся в нужную конфигурацию и будет работать, несколько наивно, и советую три раза подумать (и семь раз протестировать), прежде чем разворачивать сие в бой. Теги в посте проставлены правильно.
Да, keystone это больше Identity manager, но через него же происходит авторизация в клауде. Когда я начинал статью, Juno был в стадии около-RC.

Конструктор он если ставить самому, а что бы не дорабатывать напильником Mirantis выкатило Fuel, который упрощает сборку этого конструктора до вполне приемлемых форм. Ему еще, возможно, далеко до тяжелого продакшена, но в средне-больших конторах это неплохая замена стойке с серверами, на которых по одному-двум сервисам.
Пробовал я его покрутить-посмотреть что за чудо такое — сильно не старался, но с наскока не осилил. Развертывание показалось достаточно сложным, страшно подумать как оно в продакшене будет и какие проблемы могут вылезти. Кажется мне, что для развертывания сабжа необходимо в штате иметь девелопера, который участвует в разработке OpenStack. Мне кажется что именно по этой причине, многие крупные компании и выбирают VMware для построения частных облаков.
По мануалу его поставить можно из разряда copy-paste изредка включая мозги, а используя fuel еще проще.
Ну вот пробовал по мануалу с оффсата методом copy-paste — не все взлетело, потом немного поковырял, но т.к. времени особо не было, да и ставил просто на посмотреть — забил на эту идею.
На сколько такое решение подходит для организации облака на серверах без выделенного хранилища? Т.е. есть несколько мощных серверов с дисками в каждом. Нужно запустить на них облако, причем желательно, чтобы ни один сервер не вышел из полностью эксплуатации (т.е. не выделился под нужды самой системы облака).

OpenStack как ни крути сложная штука. Чтобы ее использовать, нужно хорошо в ней разобраться. Это все понятно. Но вот где бы найти хороший и современный обзор ее возможностей, чтобы начинать с общей картины, а не подробностей.
У меня сейчас подобная схема. Нет отдельного хранилища, вместо него в каждой compute-ноде есть пару хТб винтов, которые объеденены в ceph хранилище. Но даже в такой схеме вам надо 2 сервера «под нужды облака» — один это непосредственно контроллер OpenStack и еще один — Fuel Master который помогает разворачивать OpenStack на новые сервера. Теоретически Fuel вы можете запустить где-то в виртуалке. Ну или под эти две вещи собрать относительно слабые компы.
Нужны 2 физических сервера, или это могут быть 2 виртуалки? Но даже если вириуалки, все равно один физический сервер из облока теряется…
Без использования Fuel вы можете Controller совместить с Compute нодой, теоретически.
Это можно сделать и практически, но не стоит. Слишком большое падение производительности.

Желательно Fuel и Contreoller держать на разных железках, пускай и достаточно слабых
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории