Как стать автором
Обновить
Southbridge
Обеспечиваем стабильную работу highload-проектов

Пять вопросов о Ceph с пояснениями

Блог компании Southbridge Системное администрирование *Серверное администрирование *Хранилища данных *DevOps *
Перевод
Автор оригинала: Stacey Peterson


Что нужно знать о Ceph, хранилище с открытым исходным кодом, чтобы решить, подходит ли оно вашей компании. В статье будет сравнение с альтернативными объектными хранилищами, а также рассмотрена оптимизация Ceph.


Хранилище Ceph — одно из наиболее популярных объектных хранилищ. Это высокомасштабируемое и унифицированное хранилище с открытым исходным кодом также обладает некоторыми преимуществами.


Ceph предлагает функции, которые, в принципе, есть в других хранилищах для предприятий, но он, вероятно, будет дешевле, чем обычный SAN. Для Ceph с открытым исходным кодом не нужны лицензионные отчисления, которые есть у проприетарных систем. Также у Ceph нету зависимости от дорогого специализированного оборудования, он может быть установлен на обычное оборудование.


Среди других преимуществ — масштабируемость и гибкость. Ceph предлагает несколько интерфейсов доступа к хранилищу: объектный, блочный и файловый. Для увеличения емкости системы достаточно добавить больше серверов.


К некоторым недостаткам при использовании Ceph можно отнести нужду в быстрой, а значит более дорогой сети. Это также не бесплатно для любой компании. Если вы используете его для хранения важных данных — скорее всего вы используете один из двух коммерческих вариантов с поддержкой от RedHat или SUSE. Несмотря на это, Ceph — это более дешёвая и живучая альтернатива проприетарным SAN.


Какое объектное хранилище лучше: Ceph или Swift?


Ceph и Swift — объектные хранилища, распределяющие и реплицирующие данные по кластеру. Они используют файловую систему XFS или другую файловую систему, доступную в Linux. Они оба разработаны для масштабирования, так что пользователи могут легко добавить узлы хранилища.


Но что касается доступа к данным, то Swift разработан с прицелом на облака, использует RESTful API. Приложения могут няпрямую получить доступ к Swift, обходя при этом операционную систему. Это хорошо в облачном окружении, но усложняет доступ к хранилищу Swift.


Ceph — более гибкое объектное хранилище с четырьмя способами доступа: Amazon S3 RESTful API, CephFS, Rados Block Device и шлюзом iSCSI. Ceph и Swift также отличаются способом доступа клиентов. Так в Swift клиенты должны идти через Swift Gateway, который сам по себе является единой точкой отказа. Ceph с другой стороны использует устройство объектного хранилища, доступное на каждом узле. Другая часть, используемая для доступа к объектному хранилищу, запускается на клиенте. Так что здесь Ceph более гибкий.


Данные, хранимые в Ceph, обычно целостные по всему кластеру. В принципе это справедливо и для данных в Swift, но для синхронизации кластера может потребоваться время. С учетом этой разницы Ceph неплохо работает в пределах одного датацентра, работая с данными, которым надо высокий уровень целостности, например виртуальные машины и базы данных. Swift лучше подходит для больших окружений, работающих с огромными объемами данных.


Какая разница между Ceph и GlusterFS?


GlusterFS и Ceph — системы хранения данных с открытым исходным кодом, отлично работающими в облачных окружениях. Обе могут легко внедрять новые устройства хранения в существующую инфраструктуру хранения, используют репликацию для отказоустойчивости, а также работают на обычном оборудовании. В обеих системах доступ к метаданным децентрализован, подразумевая отсутствие единой точки отказа.


Несмотря на наличие общих вещей, у них есть также ключевые различия. GlusterFS — файловая система Linux, которую легко внедрить в окружении Linux, но нельзя так же легко внедрить в окружении Windows.


Ceph с другой стороны предоставляет высокомасштабируемое объектное, файловое и блочное хранилище в единой унифицированной системе. Как и в любом другом объектном хранилище, приложения пишут в хранилище с помощью API, минуя операционную систему. С учетом этого, хранилища Ceph внедряются одинаково легко как в Linux, так и в Windows. Из-за этого, а также по другим причинам, Ceph — лучший выбор для разнородных окружений, где используются Linux и другие операционные системы.


Если сравнивать по скорости работы, то и Ceph и GlusterFS работают примерно одинаково. Также GlusterFS по большей части ассоциируется с RedHat, в то же время Ceph шире поддерживается сообществом.


Ceph с открытым исходным кодом или коммерческая версия Ceph: как их сравнивать?


Пользователи могут без каких либо выплат сделать любую SDS на основе Ceph, пока его исходный код остается открытым. Ceph предлагает руководства по запуску, в котором описаны все этапы по его сборке в любом дистрибутиве Linux, а также настройке окружения Ceph.


Это достаточно сложный процесс, требующий определенного опыта. Тут и появляются коммерческие сборки Ceph, их проще сделать, кроме сборок также предоставляется и поддержка.


Есть два коммерческих продукта: RedHat Ceph Storage и SUSE Enterprise Storage. Есть некоторые различия, так компания SUSE разработала iSCSI Gateway, позволяющий пользователям получить доступ к хранилищу Ceph. RedHat внедрила Ceph-Ansible, инструмент управления настройками, с которым Ceph относительно легче устанавливать и настраивать.


Какие способы улучшения производительности Ceph лучшие?


Для хорошей производительности достаточно SATA дисков. Алгоритм CRUSH (Controlled Replication Under Scalable Hashing) в Ceph решает, где хранить данные в хранилище. Он разработан для гарантии быстрого доступа к хранилищу. Однако для оптимальной скорости Ceph надо 10G сеть, а лучше — 40G.


Несколько больших серверов, на которых установлено много дисков, обеспечат наилучшую производительность, однако диск с журналом должен быть на отдельном устройстве. Использование журнала на SSD обеспечит максимальную скорость, а файловая система Btrfs даст оптимальную производительность Ceph.


Как вы внедряете Ceph на Windows?


Есть два способа внедрения: Ceph Gateway и iSCSI target в SUSE Enterprise Storage. Ceph Gateway обеспечивает приложениям доступ с помощью RESTful API, но это не самый лучший способ предоставления доступа для операционной системы.


Ceph может быть настроен как и любая другая СХД на основе iSCSI с помощью iSCSI target в SUSE Enterprise Storage. Это дает доступ к хранилищу для операционной системы с поддержкой iSCSI initiator, к примеру серверной Windows.


Курс по Ceph будет запущен образовательным центром Слёрм 15 октября 2020. Cейчас можно сделать предзаказ с существенной скидкой.


Программа курса:

№1: Что такое Ceph и чем он не является


  • Что такое Ceph
  • Что умеет Ceph, а для чего он не предназначен
  • Аналоги Ceph
    №2: Обзор архитектуры Ceph
  • Из чего состоит Ceph
  • За что отвечают различные компоненты Ceph
    №3: Установка Ceph
  • Настройка Ceph руками
  • Ceph-deploy, Cephadm, Ansible (обзорное представление)
  • Краткие системные требования
    №4: Варианты использования Ceph
  • Внешние интерфейсы RBD, CephFS, RGW (S3)
    №5: Интеграция Ceph с распространенными Cloud Native решениями
  • Kubernetes
  • OpenStack
  • Proxmox
  • OpenNebula
    №6: Эксплуатация Ceph. Регламентные работы
  • Добавление/удаление OSD, MON
  • Ребалансировка
  • Перенос данных между кластерами
  • Обновление кластера
  • Бэкапы
    №7: Мониторинг Ceph
  • Сбор метрик, на что обращать внимание
  • Алертинг
    №8: Дебаг Ceph. Что делать когда все сломалось
  • Флаги (nodown, noup, nobackfill, norecover)
  • Реакция на переполнение
  • Проблемы при ребилде
    №9: Расширенная диагностика Ceph. Что делать, когда все работает, но не совсем так, как надо
  • Рост latency
  • Отвалы OSD
  • Работа с админ-socket'ом
    №10: Производительность Ceph. Математика производительности
  • Что такое производительность кластера Ceph / системы хранения
  • Чего можно ожидать и чего ожидать не стоит от вашего кластера
  • Как оценивать производительность и как ее подсчитать
  • Что потребуется, чтобы выйти на определенный уровень производительности
  • Гиперконвергентные системы
    №11: Выбор железа под свой кластер
  • Рекомендации к выбору железа для своего кластера
Теги:
Хабы:
Всего голосов 19: ↑14 и ↓5 +9
Просмотры 5.1K
Комментарии Комментарии 14

Информация

Дата основания
Местоположение
Россия
Сайт
southbridge.io
Численность
51–100 человек
Дата регистрации
Представитель
Антон Скобин