Обновить

Комментарии 8

Как любой грандиозный проект с грандиозной идеей, он будет на 1% зависеть от идеи и на 99% от реализации. А реализация грозит нам всё тем же:

hw management (как ребутнуть сервер, как заставить данный сервер ТОЧНО загрузиться по pxe?)
hw inventory (какие диски для чего можно использовать? Какие сетевые интерфейсы в какие коммутаторы воткнуты? Как это понять в автоматическом режиме?)
Boot: как загрузить ОС с драйверами под данное железо?
OS level: как установить те версии ПО, которые требуются?
App level: как деплоить нужные версии из нужных брачей и как к ним правильно притягивать зависимости?
conf level: как соотнести конфигурацию приложения с остальными уровнями? (доступные сети и т.д.)

Дальше там мониторинг/балансинг, но это уже дело десятое.

Все эти уровни много раз решались разными людьми под разные специфичные сценарии с разной степенью неуспешности. Решение, которое бы убирало это боль пока не найдено.

Если им получится решить эту проблему — это будет революция. Решат локальные кейсы — ну будет у нас рядом с MaaS+juju, TrippleO+chef и т.д., ещё одна конструкция.
Так основная идея месоса и месосферы — разделение ответственности. Раньше можно было вынести в 2 отдельных подразделения сеть и железячную часть, остальное на админах софта. В новой концепции ОС и инфраструктура для масштабирования приложений выделяется в третье подразделение. Теоретически, после такого шага разработчики уже сами могут деплоить, в гугле такое практикуют с мелкими проектами. Либо остаются специальные админы, которые думают только про приложение и его конфигурацию, а не про железо и ОС.
Ничего не понял.

Вот, допустим, у нас «ОС и инфраструктура» в новом подразделении. Мне нужно запустить маленький шардик из эластика для экспериментов.

Сейчас я:
1) Пишу в внутренний саппорт компании «хачу сервера», мне их дают.
2) Я через менюшку self-serving выставляю себе ОС, гружусь
3) Обнаруживаю, что мне нужен отдельный вилан. Пишу сетевикам с номерами портов. Получаю.
4) Ставлю что мне нужно.

А в этой фантазии что происходит и кто это делает?

И, главное, к вопросу о сетевой стене: кто эту милую хипстерскую поделку пустит к консоли управления роутером, через которые сотни гигабит проходят?
А вы не можете запустить совсем произвольное приложение, оно должно соответствовать конвенции взаимодействия с месосферой. И заказываете не виртуалки, а просто ресурсы, типа 50 ядер и 100 гиг памяти. Про всякие виланы вам вообще думать не нужно, это все системой должно делаться. По сути, это аналог запуска бинарника на локальной машине, только где-то в дц.

Это я пишу не применительно к конкретному продукту, а к концепции. Пускать или не пускать хипстерское поделие в своем дц каждый решает сам. Скоро будут и решения от крупных вендоров.
Итого, 1% идея, 99% «системой должно делаться». Как человек с другой стороны «делаться», я могу сказать, что «делаться» оно будет не системой.
Интересно видится концепция как «ЦОД из коробки», но там в любом случае это плотная связка под конкретное железо. А вот тут можно развернуться — производителям железа возможно захочется расширить арсенал конкурентных преимуществ (красивых коробочных решений)
Это называется «вендор лок» и от него будут все отворачиваться с самого начала. А если будут сильно пиарить, то и от железки отвернутся тоже. Желающие могут посмотреть на Dell с его crowbar'ом.
Я извиняюсь за резкость. Просто для меня Mesosphere — как красная тряпка для быка. У кого-нибудь из присутствующих здесь, есть положительный опыт использования ЭТОГО в продакшне? Можете им поделиться?


На данный момент, абстракции от самого Mesos вполне достаточны для построения staleless приложений. Например, «запустить N инстансов приложения на серверах, где есть для этого ресурсы» (Marathon, Aurora). Но когда я последний раз проверял это не настолько просто с сервисами, которые хранят данные на диске отдельно для каждого из инстансов (Cassandra, Elasticsearch). Если при падении stateless — сервисов, их можно перезапустить где угодно, то с базами данных все несколько сложнее и Mesos расширяется в данный момент до включения и управления дисковыми ресурсами.

По моему опыту, довольно неплохо работают сервисы (имлементирующие Mesos фреймворк) хранящие данные, например, в Zookeeper. У нас неплохой опыт с развертыванием Storm кластера на Mesos. Остальное было пока на уровне экспериментов и тестов: Spark, Marathon, Chronos, но было вполне работоспособное.

ОС для датацентра, конечно, звучит очень громко на данный момент, но это все вполне возможно и остается дело за реализацией, бОльшая часть которой будет основана на умной имлементации Mesos framework для каждого из интересующих сервисов
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Информация

Сайт
1cloud.ru
Дата регистрации
Дата основания
Численность
31–50 человек
Местоположение
Россия