Установка распределённого отказоустойчивого хранилища объектов LeoFS, совместимого с клиентами, использующими S3, NFS

    Я из компании Luxoft.
    Согласно Opennet: LeoFS — распределённое отказоустойчивое хранилище объектов LeoFS, совместимое с клиентами, использующими API Amazon S3 и REST-API, а также поддерживающего режим работы в роли NFS-сервера. Имеются оптимизации для хранение как мелких, так и очень больших объектов, присутствует встроенный механизм кэширования, возможна репликация хранилищ между дата-центрами. Среди целей проекта отмечается достижение надёжности 99.9999999% за счёт избыточного реплицирования дубликатов и исключения единой точки отказа. Код проекта написан на языке Erlang.


    LeoFS состоит из трёх компонентов:


    • LeoFS Storage — обслуживает операции добавления, извлечения и удаления объектов и метаданных, отвечает за выполнение репликации, восстановления и формирования очереди запросов клиентов.
    • LeoFS Gateway — обслуживает HTTP-запросы и перенаправляет ответы клиентам с использованием REST-API или S3-API, обеспечивает кэширование наиболее востребованных данных в памяти и на диске.
    • LeoFS Manager — отслеживает работу узлов LeoFS Gateway и LeoFS Storage, ведёт мониторинг состояния узлов и проверяет контрольные суммы. Гарантирует целостность данных и высокую доступность хранилища.

    В этом посте установим Leofs c помощью ansible-playbook, протестируем S3, NFS.


    Если вы попытаетесь установить LeoFS используя официальные playbook-и, то вас ждут разные ошибки: 1,2. В этом посте напишу что нужно сделать чтобы эти ошибки избежать.


    Там где вы будете запускать ansible-playbook, нужно установить netcat.


    Пример inventory


    Пример inventory (в репозитории hosts.sample):
    # Please check roles/common/vars/leofs_releases for available versions
    [all:vars]
    leofs_version=1.4.3
    build_temp_path="/tmp/leofs_builder"
    build_install_path="/tmp/"
    build_branch="master"
    source="package"
    
    #[builder]
    #172.26.9.177
    
    # nodename of leo_manager_0 and leo_manager_1 are set at group_vars/all
    [leo_manager_0]
    172.26.9.176
    
    # nodename of leo_manager_0 and leo_manager_1 are set at group_vars/all
    [leo_manager_1]
    172.26.9.178
    
    [leo_storage]
    172.26.9.179 leofs_module_nodename=S0@172.26.9.179
    172.26.9.181 leofs_module_nodename=S0@172.26.9.181
    172.26.9.182 leofs_module_nodename=S0@172.26.9.182
    172.26.9.183 leofs_module_nodename=S0@172.26.9.183
    
    [leo_gateway]
    172.26.9.180 leofs_module_nodename=G0@172.26.9.180
    172.26.9.184 leofs_module_nodename=G0@172.26.9.184
    
    [leofs_nodes:children]
    leo_manager_0
    leo_manager_1
    leo_gateway
    leo_storage

    Подготовка серверов


    Отключение Selinux. Надеюсь что сообщество создаст политики Selinux для LeoFS.


        - name: Install libselinux as prerequisite for SELinux Ansible module
          yum:
            name: "{{item}}"
            state: latest
          with_items:
            - libselinux-python
            - libsemanage-python
    
        - name: Disable SELinux at next reboot
          selinux:
            state: disabled
    
        - name: Set SELinux in permissive mode until the machine is rebooted
          command: setenforce 0
          ignore_errors: true
          changed_when: false
    

    Установка netcat и redhat-lsb-core. netcat нужен для leofs-adm, redhat-lsb-core нужен для определения версии ОС здесь.


        - name: Install Packages
          yum: name={{ item }} state=present
          with_items:
            - nmap-ncat
            - redhat-lsb-core

    Создание юзера leofs и добавление его в группу wheel


        - name: Create user leofs
          group:
            name: leofs
            state: present
    
        - name: Allow 'wheel' group to have passwordless sudo
          lineinfile:
            dest: /etc/sudoers
            state: present
            regexp: '^%wheel'
            line: '%wheel ALL=(ALL) NOPASSWD: ALL'
            validate: 'visudo -cf %s'
    
        - name: Add the user 'leofs' to group 'wheel'
          user:
            name: leofs
            groups: wheel
            append: yes

    Установка Erlang


        - name: Remote erlang-20.3.8.23-1.el7.x86_64.rpm install with yum
          yum: name=https://github.com/rabbitmq/erlang-rpm/releases/download/v20.3.8.23/erlang-20.3.8.23-1.el7.x86_64.rpm
    

    Полную версию поправленых ansible playbook можно найти здесь: https://github.com/patsevanton/leofs_ansible


    Установка, конфигурирование, запуск


    Далее выполняем как написано в https://github.com/leo-project/leofs_ansible без build_leofs.yml


    ## Install LeoFS
    $ ansible-playbook -i hosts install_leofs.yml
    
    ## Config LeoFS
    $ ansible-playbook -i hosts config_leofs.yml
    
    ## Start LeoFS
    $ ansible-playbook -i hosts start_leofs.yml

    Проверяем статус кластера на Primary LeoManager


    leofs-adm status

    Primary и Secondary можно увидеть в логах ansible-playbook




    Вывод будет примерно такой
     [System Confiuration]
    -----------------------------------+----------
     Item                              | Value    
    -----------------------------------+----------
     Basic/Consistency level
    -----------------------------------+----------
                        system version | 1.4.3
                            cluster Id | leofs_1
                                 DC Id | dc_1
                        Total replicas | 2
              number of successes of R | 1
              number of successes of W | 1
              number of successes of D | 1
     number of rack-awareness replicas | 0
                             ring size | 2^128
    -----------------------------------+----------
     Multi DC replication settings
    -----------------------------------+----------
     [mdcr] max number of joinable DCs | 2
     [mdcr] total replicas per a DC    | 1
     [mdcr] number of successes of R   | 1
     [mdcr] number of successes of W   | 1
     [mdcr] number of successes of D   | 1
    -----------------------------------+----------
     Manager RING hash
    -----------------------------------+----------
                     current ring-hash | a0314afb
                    previous ring-hash | a0314afb
    -----------------------------------+----------
    
     [State of Node(s)]
    -------+----------------------+--------------+---------+----------------+----------------+----------------------------
     type  |         node         |    state     | rack id |  current ring  |   prev ring    |          updated at         
    -------+----------------------+--------------+---------+----------------+----------------+----------------------------
      S    | S0@172.26.9.179      | running      |         | a0314afb       | a0314afb       | 2019-12-05 10:33:47 +0000
      S    | S0@172.26.9.181      | running      |         | a0314afb       | a0314afb       | 2019-12-05 10:33:47 +0000
      S    | S0@172.26.9.182      | running      |         | a0314afb       | a0314afb       | 2019-12-05 10:33:47 +0000
      S    | S0@172.26.9.183      | attached     |         |                |                | 2019-12-05 10:33:58 +0000
      G    | G0@172.26.9.180      | running      |         | a0314afb       | a0314afb       | 2019-12-05 10:33:49 +0000
      G    | G0@172.26.9.184      | running      |         | a0314afb       | a0314afb       | 2019-12-05 10:33:49 +0000
    -------+----------------------+--------------+---------+----------------+----------------+----------------------------

    Создаем юзера


    Создаем юзера leofs:


    leofs-adm create-user leofs leofs
    
      access-key-id: 9c2615f32e81e6a1caf5
      secret-access-key: 8aaaa35c1ad78a2cbfa1a6cd49ba8aaeb3ba39eb

    Список юзеров:


    leofs-adm get-users
    user_id     | role_id | access_key_id          | created_at                
    ------------+---------+------------------------+---------------------------
    _test_leofs | 9       | 05236                  | 2019-12-02 06:56:49 +0000
    leofs       | 1       | 9c2615f32e81e6a1caf5   | 2019-12-02 10:43:29 +0000

    Создаем Bucket


    Сделал bucket


    leofs-adm add-bucket leofs 9c2615f32e81e6a1caf5
    OK

    Список bucket:


     leofs-adm get-buckets
    cluster id   | bucket   | owner  | permissions      | created at                
    -------------+----------+--------+------------------+---------------------------
    leofs_1      | leofs    | leofs  | Me(full_control) | 2019-12-02 10:44:02 +0000

    Конфигурирование s3cmd


    В поле HTTP Proxy server name указываем IP сервера Gateway


    s3cmd --configure 
    
    Enter new values or accept defaults in brackets with Enter.
    Refer to user manual for detailed description of all options.
    
    Access key and Secret key are your identifiers for Amazon S3. Leave them empty for using the env variables.
    Access Key [9c2615f32e81e6a1caf5]: 
    Secret Key [8aaaa35c1ad78a2cbfa1a6cd49ba8aaeb3ba39eb]: 
    Default Region [US]: 
    
    Use "s3.amazonaws.com" for S3 Endpoint and not modify it to the target Amazon S3.
    S3 Endpoint [s3.amazonaws.com]: 
    
    Use "%(bucket)s.s3.amazonaws.com" to the target Amazon S3. "%(bucket)s" and "%(location)s" vars can be used
    if the target S3 system supports dns based buckets.
    DNS-style bucket+hostname:port template for accessing a bucket [%(bucket)s.s3.amazonaws.com]: leofs
    
    Encryption password is used to protect your files from reading
    by unauthorized persons while in transfer to S3
    Encryption password: 
    Path to GPG program [/usr/bin/gpg]: 
    
    When using secure HTTPS protocol all communication with Amazon S3
    servers is protected from 3rd party eavesdropping. This method is
    slower than plain HTTP, and can only be proxied with Python 2.7 or newer
    Use HTTPS protocol [No]: 
    
    On some networks all internet access must go through a HTTP proxy.
    Try setting it here if you can't connect to S3 directly
    HTTP Proxy server name [172.26.9.180]: 
    HTTP Proxy server port [8080]: 
    
    New settings:
      Access Key: 9c2615f32e81e6a1caf5
      Secret Key: 8aaaa35c1ad78a2cbfa1a6cd49ba8aaeb3ba39eb
      Default Region: US
      S3 Endpoint: s3.amazonaws.com
      DNS-style bucket+hostname:port template for accessing a bucket: leofs
      Encryption password: 
      Path to GPG program: /usr/bin/gpg
      Use HTTPS protocol: False
      HTTP Proxy server name: 172.26.9.180
      HTTP Proxy server port: 8080
    
    Test access with supplied credentials? [Y/n] Y
    Please wait, attempting to list all buckets...
    Success. Your access key and secret key worked fine :-)
    
    Now verifying that encryption works...
    Not configured. Never mind.
    
    Save settings? [y/N] y
    Configuration saved to '/home/user/.s3cfg'

    Если у вас появляется ошибка ERROR: S3 error: 403 (AccessDenied): Access Denied:


    s3cmd put test.py s3://leofs/
    upload: 'test.py' -> 's3://leofs/test.py'  [1 of 1]
     382 of 382   100% in    0s     3.40 kB/s  done
    ERROR: S3 error: 403 (AccessDenied): Access Denied

    То нужно в конфиге s3cmd поправить signature_v2 на True. Подробности в этом issue.


    Если signature_v2 будет False, то будет вот такая ошибка:


    WARNING: Retrying failed request: /?delimiter=%2F (getaddrinfo() argument 2 must be integer or string)
    WARNING: Waiting 3 sec...
    WARNING: Retrying failed request: /?delimiter=%2F (getaddrinfo() argument 2 must be integer or string)
    WARNING: Waiting 6 sec...
    ERROR: Test failed: Request failed for: /?delimiter=%2F

    Тестирование загрузки


    Создаем файл 1ГБ


    fallocate -l 1GB 1gb

    Загружаем его в Leofs


    time s3cmd put 1gb s3://leofs/
    real    0m19.099s
    user    0m7.855s
    sys 0m1.620s

    Статистика


    leofs-adm du для 1 ноды:


    leofs-adm du S0@172.26.9.179
     active number of objects: 156
      total number of objects: 156
       active size of objects: 602954495
        total size of objects: 602954495
         ratio of active size: 100.0%
        last compaction start: ____-__-__ __:__:__
          last compaction end: ____-__-__ __:__:__

    Видим что вывод не очень информативный.


    Посмотрим где расположен этот файл.
    leofs-adm whereis leofs/1gb


    leofs-adm whereis leofs/1gb
    -------+----------------------+--------------------------------------+------------+--------------+----------------+----------------+----------------+----------------------------
     del?  |         node         |             ring address             |    size    |   checksum   |  has children  |  total chunks  |     clock      |             when            
    -------+----------------------+--------------------------------------+------------+--------------+----------------+----------------+----------------+----------------------------
           | S0@172.26.9.181      | 657a9f3a3db822a7f1f5050925b26270     |    976563K |   a4634eea55 | true           |             64 | 598f2aa976a4f  | 2019-12-05 10:48:15 +0000
           | S0@172.26.9.182      | 657a9f3a3db822a7f1f5050925b26270     |    976563K |   a4634eea55 | true           |             64 | 598f2aa976a4f  | 2019-12-05 10:48:15 +0000

    Активируем NFS


    Активируем NFS на сервере Leo Gateway 172.26.9.184.


    На сервере и клиенте установим nfs-utils


    sudo yum install nfs-utils

    Согласно инструкции поправим файл конфигурации /usr/local/leofs/current/leo_gateway/etc/leo_gateway.conf


    protocol = nfs

    На сервере 172.26.9.184 запустим rpcbind и leofs-gateway


    sudo service rpcbind start
    sudo service leofs-gateway restart

    На сервере где запущен leo_manager создадим bucket для NFS и сгенерируем ключ для подключения к NFS


    leofs-adm add-bucket test 05236
    leofs-adm gen-nfs-mnt-key test 05236 ip-адрес-nfs-клиента

    Подключение к NFS


    sudo mkdir /mnt/leofs
    ## for Linux - "sudo mount -t nfs -o nolock <host>:/<bucket>/<token> <dir>"
    sudo mount -t nfs -o nolock ip-адрес-nfs-сервера-там-где-у-вас-установлен-gateway:/bucket/access_key_id/ключ-полученный-от-gen-nfs-mnt-key /mnt/leofs
    sudo mount -t nfs -o nolock 172.26.9.184:/test/05236/bb5034f0c740148a346ed663ca0cf5157efb439f /mnt/leofs

    Просмотр дискового простанства через NFS клиент


    Дисковое простанство c учетом что каждая нода storage имеет диск 40ГБ (3 ноды running, 1 нода attached):


    df -hP
    Filesystem                                                         Size  Used Avail Use% Mounted on
    172.26.9.184:/test/05236/e7298032e78749149dd83a1e366afb328811c95b   60G  3.6G   57G   6% /mnt/leofs

    Установка LeoFS с 6 storage нодами.


    Inventory (без builder):
    # Please check roles/common/vars/leofs_releases for available versions
    [all:vars]
    leofs_version=1.4.3
    build_temp_path="/tmp/leofs_builder"
    build_install_path="/tmp/"
    build_branch="master"
    source="package"
    
    # nodename of leo_manager_0 and leo_manager_1 are set at group_vars/all
    [leo_manager_0]
    172.26.9.177
    
    # nodename of leo_manager_0 and leo_manager_1 are set at group_vars/all
    [leo_manager_1]
    172.26.9.176
    
    [leo_storage]
    172.26.9.178 leofs_module_nodename=S0@172.26.9.178
    172.26.9.179 leofs_module_nodename=S0@172.26.9.179
    172.26.9.181 leofs_module_nodename=S0@172.26.9.181
    172.26.9.182 leofs_module_nodename=S0@172.26.9.182
    172.26.9.183 leofs_module_nodename=S0@172.26.9.183
    172.26.9.185 leofs_module_nodename=S0@172.26.9.185
    
    [leo_gateway]
    172.26.9.180 leofs_module_nodename=G0@172.26.9.180
    172.26.9.184 leofs_module_nodename=G0@172.26.9.184
    
    [leofs_nodes:children]
    leo_manager_0
    leo_manager_1
    leo_gateway
    leo_storage

    Вывод leofs-adm status


    Вывод leofs-adm status
     [System Confiuration]
    -----------------------------------+----------
     Item                              | Value    
    -----------------------------------+----------
     Basic/Consistency level
    -----------------------------------+----------
                        system version | 1.4.3
                            cluster Id | leofs_1
                                 DC Id | dc_1
                        Total replicas | 2
              number of successes of R | 1
              number of successes of W | 1
              number of successes of D | 1
     number of rack-awareness replicas | 0
                             ring size | 2^128
    -----------------------------------+----------
     Multi DC replication settings
    -----------------------------------+----------
     [mdcr] max number of joinable DCs | 2
     [mdcr] total replicas per a DC    | 1
     [mdcr] number of successes of R   | 1
     [mdcr] number of successes of W   | 1
     [mdcr] number of successes of D   | 1
    -----------------------------------+----------
     Manager RING hash
    -----------------------------------+----------
                     current ring-hash | d8ff465e
                    previous ring-hash | d8ff465e
    -----------------------------------+----------
    
     [State of Node(s)]
    -------+----------------------+--------------+---------+----------------+----------------+----------------------------
     type  |         node         |    state     | rack id |  current ring  |   prev ring    |          updated at         
    -------+----------------------+--------------+---------+----------------+----------------+----------------------------
      S    | S0@172.26.9.178      | running      |         | d8ff465e       | d8ff465e       | 2019-12-06 05:18:29 +0000
      S    | S0@172.26.9.179      | running      |         | d8ff465e       | d8ff465e       | 2019-12-06 05:18:29 +0000
      S    | S0@172.26.9.181      | running      |         | d8ff465e       | d8ff465e       | 2019-12-06 05:18:30 +0000
      S    | S0@172.26.9.182      | running      |         | d8ff465e       | d8ff465e       | 2019-12-06 05:18:29 +0000
      S    | S0@172.26.9.183      | running      |         | d8ff465e       | d8ff465e       | 2019-12-06 05:18:29 +0000
      S    | S0@172.26.9.185      | running      |         | d8ff465e       | d8ff465e       | 2019-12-06 05:18:29 +0000
      G    | G0@172.26.9.180      | running      |         | d8ff465e       | d8ff465e       | 2019-12-06 05:18:31 +0000
      G    | G0@172.26.9.184      | running      |         | d8ff465e       | d8ff465e       | 2019-12-06 05:18:31 +0000
    -------+----------------------+--------------+---------+----------------+----------------+----------------------------

    Дисковое простанство c учетом что каждая нода storage имеет диск 40ГБ (6 нод running):


    df -hP
    Filesystem                                                         Size  Used Avail Use% Mounted on
    172.26.9.184:/test/05236/e7298032e78749149dd83a1e366afb328811c95b  120G  3.6G  117G   3% /mnt/leofs

    Если используется 5 нод storage


    [leo_storage]
    172.26.9.178 leofs_module_nodename=S0@172.26.9.178
    172.26.9.179 leofs_module_nodename=S1@172.26.9.179
    172.26.9.181 leofs_module_nodename=S2@172.26.9.181
    172.26.9.182 leofs_module_nodename=S3@172.26.9.182
    172.26.9.183 leofs_module_nodename=S4@172.26.9.183

    df -hP
    172.26.9.184:/test/05236/e7298032e78749149dd83a1e366afb328811c95b  100G  3.0G   97G   3% /mnt/leofs

    Логи


    Логи находятся в директориях /usr/local/leofs/current/*/log


    Если вы будете устанавливать/настраивать Leofs вручную, то возможно столкнетесь со следующими ошибками.


    [ERROR] Mnesia is not available

    Запускаете сервис systemctl start leofs-manager-master


    leofs-adm status
    [ERROR] Mnesia is not available

    Нужно стартовать systemctl start leofs-manager-slave на leo_manager_1


    Не стартует leofs-storage.

    Нужно чтобы были запущенными leofs-manager-master и leofs-manager-slave и leofs-adm status показывал статус.


    Attached nodes less than # of replicas

    При запуске leofs-adm start у вас появляется такая ошибка:


    leofs-adm start
    [ERROR] Attached nodes less than # of replicas

    Не хватает Storage нод. leofs-adm status покажет вам меньше 2 Storage нод. Минимально необходимое количество Storage нод 2.


    leofs-adm status показывает attached, остальные running.

    Нужно перебалансировать ноды


    leofs-adm rebalance

    После старта leofs-gateway, вы не видите ноду Gateway в leofs-adm status

    Нужно стартовать leofs-adm


    leofs-adm start

    couldn't connect to LeoFS Manager на Slave узле

    (By default, leofs-adm isn't working on slave node!](https://leo-project.net/leofs/docs/issues/documentation-issues/)


    Нагрузочное тестирование


    Тестирование проходит на 2 нодах с конфигурацией:


    CPU: Single Core Intel Core (Broadwell) (-MCP-) speed: 2295 MHz Kernel: 3.10.0-862.3.2.el7.x86_64 x86_64 Up: 1h 08m 
    Mem: 1023.8/1999.6 MiB (51.2%) Storage: 10.00 GiB (43.5% used) Procs: 98 Shell: bash 4.2.46 inxi: 3.0.37

    Для тестирования возмем небольшой диск
    На обоих нодах видим диск 9.4G и 5.9G свободного простанства.


    df -hP
    Filesystem      Size  Used Avail Use% Mounted on
    /dev/vda1       9.4G  5.9G  3.1G  66% /

    Телеграм канал: SDS и Кластерные FS

    • +11
    • 1.7k
    • 6
    Support the author
    Share post

    Similar posts

    AdBlock has stolen the banner, but banners are not teeth — they will be back

    More
    Ads

    Comments 6

      +4
      Интересно, как обстоят дела с надежностью. В статье упомянули 7 девяток. Но вопрос надежности решения состоит не только в репликации данных, но и в качестве самого leofs. В 2017-2018 разворачивали небольшое тестовое хранилище на 20 ТБ. Из проблем с которыми столкнулся лично — неконсистентность после ребалансировки, высокое потребление cpu на отдельных нодах в нормальном состоянии кластера, 504 на нодах хранилища, отказы при перезапуске узлов из-за багов в самом коде. Плавающее время ответа.
      Лично для меня leofs — сыро, медленно и в конечном итоге дорого, так как постоянно нужно отвлекаться и решать какие-то проблемы с ним. Если у кого-то есть опыт успешной эксплуатации leofs в продакшене, поделитесь пожалуйста.
        0
        Что используете вместо него?
          0
          Зависит от проекта. Где-то амазон, для маленьких minio. Если у заказчика особые требования по контролю над данными, то используем самописное решение с архитектурой как у GFS.
            0
            Проприетарное или можно скачать для тестирования?
              0
              Проприетарное. Планов по публикации пока нет
        0
            - name: Install libselinux as prerequisite for SELinux Ansible module
              yum:
                name: "{{item}}"
                state: latest
              with_items:
                - libselinux-python
                - libsemanage-python

        Так делать не нужно. Модуль yum давно умеет в списки:


            - name: Install libselinux as prerequisite for SELinux Ansible module
              yum:
                name:
                  - libselinux-python
                  - libsemanage-python
                state: latest

        Only users with full accounts can post comments. Log in, please.