Pull to refresh
375.49
FirstVDS
Виртуальные серверы в ДЦ в Москве и Амстердаме

Собираем кластер PostgreSQL для разработки и тестирования

Reading time11 min
Views25K

Сегодня СУБД PostgreSQL является одной из самых известных и популярных систем управления баз данными в мире. Открытый исходный код, отсутствие платы за использование, контроль целостности, репликация – это далеко не все преимущества данной СУБД. В современных реалиях, когда тема импортозамещения особенно актуальна, PostgreSQL может оказаться подходящим вариантом.

Обычно PostgreSQL разворачивают в качестве кластера – системы, которая состоит из нескольких связанных между собой компьютеров (серверов) с целью обеспечения отказоустойчивости.

Как правило, при развертывании кластеров PostgreSQL используют сторонние инструменты такие как Patroni, stolon, repmgr. 

В статье будет описана установка кластера PostgreSQL с помощью Ansible – инструмента, предназначенного для автоматизации настройки и развертывания программного обеспечения, а также инструмента repmgr, предназначенного для управления репликами и отказоустойчивостью в кластерах PostgreSQL.

В компаниях не всегда имеется возможность быстро выделить ресурсы для разворачивания ВМ, чтобы организовать рабочую среду для разработки или тестирования. Чтобы избежать излишней бюрократии, если такая имеет место быть, можно локально поднять систему и сразу приступить к работе с ней. Поэтому в статье в качестве примера приведен также алгоритм по установке и работе с утилитой Vagrant, которая позволяет быстро решить эту задачу.

Подготовка к установке

В качестве примера будет использоваться виртуальная машина с установленной операционной системой Ubuntu 20.04.3 LTS. Узлы кластера будут представлены в виде 3 виртуальных машин под управлением ОС Ubuntu 18.04 Bionic Beaver, которые будут запущены на гипервизоре VirtualBox. Сами ВМ будут развернуты при помощи Vagrant утилиты, предназначенной для создания и конфигурирования виртуальных окружений (под виртуальным окружением понимается более стандартное понятие – виртуальная машина). Ниже описаны хосты, которые будут использоваться в качестве кластера PostgreSQL:

node1 192.168.56.11 Роль primary, она же мастер-нода;

node2 192.168.56.12 Роль standby. Обычная рабочая нода;

node3 192.168.56.13 Роль witness. В терминологии repmgr witness это нода, которая не является частью кластера и предназначена для выбора новой мастер-ноды в случае возникновения проблем с кластером.

Ниже перечислено ПО, которое будет использоваться в статье:

Ansible;

Vagrant;

VirtualBox;

PostgreSQL;

repmgr.

Сначала на управляющий хост (основной хост, с которого будет вестись управление Vagrant и Ansible) необходимо установить Ansible, Vagrant и VirtualBox.

Произвести установку Ansible можно разными способами. В данном примере установка будет произведена при помощи официального репозитория ansible. Для этого необходимо выполнить следующие шаги:

1) Обновить списки пакетов:

sudo apt update

2) Установить пакет software-properties-common:

sudo apt -y install software-properties-common

3) Добавить официальный репозиторий Ansible:

sudo add-apt-repository --yes --update ppa:ansible/ansible

4) Установить Ansible:

sudo apt -y install ansible

После того как установка будет завершена, можно проверить, что Ansible установился корректно, путем вывода его версии. Для этого достаточно выполнить команду:

ansible --version

Если команда отобразила версию (первая строка с названием ansible [core <версия>]), значит, пакет успешно и без ошибок установлен в системе.

Далее необходимо установить Vagrant. Установка производится из официального репозитория. Шаги по установке Vagrant:

1) Добавить gpg ключ от официального репозитория Vagrant:

wget -O- https://apt.releases.hashicorp.com/gpg | gpg --dearmor | sudo tee /usr/share/keyrings/hashicorp-archive-keyring.gpg

2) Добавить официальный репозиторий hashicorp:

echo "deb [signed-by=/usr/share/keyrings/hashicorp-archive-keyring.gpg] https://apt.releases.hashicorp.com $(lsb_release -cs) main" | sudo tee /etc/apt/sources.list.d/hashicorp.list

3) Обновить список репозиториев и установить пакет vagrant:

sudo apt update && sudo apt -y install vagrant

После установки необходимо убедиться, что установка прошла успешно. Для этого в терминале необходимо ввести команду:

vagrant

Если команда вернула список команд и их описание, значит установка vagrant прошла успешно.

Последний шаг – установка VirtualBox. Необходимые пакеты уже присутствуют в официальных репозиториях. Для установки достаточно выполнить одну команду:

sudo apt -y install virtualbox virtualbox-dkms

Создание и подготовка Vagrantfile

Для создания виртуальных машин в vagrant используется специальный файл – vagranfile. Для его создания необходимо выполнить команду:

vagrant init

Команда сгенерирует специальный шаблон, где указываются ВМ, которые будут созданы. Также в этом файле прописываются имена хостов, IP адреса хостов и способ подключения к ним.

Содержимое файла будет следующим
Vagrant.configure("2") do |config|
  (1..3).each do |n|
	config.vm.define "node#{n}" do |define|
  	define.ssh.insert_key = false
  	define.vm.box = "ubuntu/bionic64"
  	define.vm.hostname = "node#{n}"
  	define.vm.network :private_network, ip: "192.168.56.1#{n}"
  	# if you would like to use port forwarding, uncomment the line below
  	# define.vm.network :forwarded_port, guest: 5432, host: "543#{n}"
 
  	define.vm.provider :virtualbox do |v|
    	v.cpus = 1
    	v.memory = 1024
    	v.name = "node#{n}"
  	end
 
  	if n == 3
    	define.vm.provision :ansible do |ansible|
      	ansible.limit = "all"
      	ansible.playbook = "playbook.yaml"
 
      	ansible.host_vars = {
        	"node1" => {:connection_host => "192.168.56.11",
                    	:node_id => 1,
                    	:role => "primary" },
 
        	"node2" => {:connection_host => "192.168.56.12",
                    	:node_id => 2,
  	                  :role => "standby" },
 
        	"node3" => {:connection_host => "192.168.56.13",
                    	:node_id => 3,
                    	:role => "witness" }
      	}
      	# to enable ansible playbook verbose mode, uncomment the line below
      	# ansible.verbose = "v"
    	end
  	end
 
	end
  end
end

Где:

define.ssh.insert_key – если выставлен в false, то vagrant не будет автоматически создавать и использовать собственные SSH ключи;

define.vm.box – задает имя образа для ВМ. Образы хранятся на сайте Vagrant Cloud;

define.vm.hostname – задает hostname виртуальным машинам;

define.vm.network – задает тип сети и диапазон IP адресов;

v.cpus – задает количество ядер, которое будет выделено для ВМ;

v.memory – задает количество оперативной памяти, которое будет выделено для ВМ;

ansible.playbook – прописывается полный путь до playbook Ansible. Vagrant имеет полную поддержку и интеграцию с Ansible;

ansible.host_vars – в данном блоке прописываются хосты, на которых будет запущен playbook Ansible. Эквивалентен файлу инвентаризации в Ansible.

Создание ролей в Ansible

Так как для установки и настройки кластера необходимо выполнить много действий, они будут разбиты на роли.

Роли в Ansible – это способ логического разбиения файлов или, проще говоря, независимая сущность, решающая какой-то набор задач. С технической точки зрения роль – это директория с поддиректориями и файлами, где расположены задачи.

Для удобства создадим директорию с именем postgres-cluster:

mkdir postgres-cluster

Далее необходимо перейти в созданный каталог и создать следующие директории:

mkdir group_vars
mkdir roles

В директории roles будут храниться все необходимые роли. В ней необходимо создать:

mkdir roles/postgres_12/tasks
mkdir roles/postgres_12/templates
mkdir roles/registration/tasks
mkdir roles/registration/templates
mkdir roles/repmgr/tasks
mkdir roles/repmgr/templates
mkdir roles/ssh/files/keys
mkdir roles/ssh/tasks

Начнем заполнять директории файлами с описанием необходимых действий (в терминологии Ansible каждая задача называется task). Но сначала необходимо заполнить файл с переменными. Они будут храниться в директории group_vars в файле с именем all.yaml.

Содержимое файла представлено ниже:

group_vars/all.yaml
node1_ip: "192.168.56.11"
node2_ip: "192.168.56.12"
node3_ip: "192.168.56.13"
pg_version: "12"

В переменных с именем node прописаны IP-адреса, которые будут присвоены виртуальным машинам. Переменная pg_version содержит версию PostgreSQL, которая будет установлена на хосты. В данном примере будет использоваться 12 версия.

Далее описываются роли. Для каждой роли в своей директории будет создана еще одна директория с именем roles, в которой будет находиться файл с именем main.yaml.

Первая роль предназначена для установки PostgreSQL
roles/postgres_12/tasks/main.yaml
- name: Add PostgreSQL apt key
  apt_key:
	url: https://www.postgresql.org/media/keys/ACCC4CF8.asc
 
- name: Add PostgreSQL repository
  apt_repository:
	# ansible_distribution_release = xenial, bionic, focal
	repo: deb http://apt.postgresql.org/pub/repos/apt/ {{ ansible_distribution_release }}-pgdg main
 
- name: Install PostgreSQL 12
  apt:
	name: postgresql-12
	update_cache: yes
 
- name: Copy database configuration
  template:
	src: full_postgresql.conf.j2
	dest: /etc/postgresql/12/main/postgresql.conf
	group: postgres
	mode: '0644'
	owner: postgres
 
- name: Copy user access configuration
  template:
	src: pg_hba.conf.j2
	dest: /etc/postgresql/12/main/pg_hba.conf
	group: postgres
	mode: '0640'
	owner: postgres

Порядок действий, описанный в роли, следующий:

1) Добавление ключа от официального репозитория postgres;

2) Добавление официального репозитория postgres;

3) Установка PostgreSQL 12;

4) Копирование и использование конфигурационного файла full_postgresql.conf.j2, который заменит стандартный конфигурационный файл postgresql.conf;

5) Копирование и использование конфигурационного файла pg_hba.conf.j2, который заменит стандартный конфигурационный файл pg_hba.conf.

Конфигурационные файлы full_postgresql.conf.j2и pg_hba.conf.j2будут находиться по следующему пути: roles/postgres_12/templates.

Содержимое файлов описано ниже
roles/postgres_12/templates/full_postgresql.conf.j2
data_directory = '/var/lib/postgresql/12/main'
hba_file = '/etc/postgresql/12/main/pg_hba.conf'
ident_file = '/etc/postgresql/12/main/pg_ident.conf'
external_pid_file = '/var/run/postgresql/12-main.pid'
port = 5432
max_connections = 100
unix_socket_directories = '/var/run/postgresql'
shared_buffers = 128MB
dynamic_shared_memory_type = posix          	
# repmgr
listen_addresses = '*'
shared_preload_libraries = 'repmgr'
wal_level = replica
max_wal_senders = 5
wal_keep_segments = 64
max_replication_slots = 5
hot_standby = on
wal_log_hints = on

Строки под комментарием # repmgr относятся к настройкам утилиты repmgr и предназначены для настройки репликации.

В конфигурационном файле pg_hba.conf.j2 прописаны сетевые доступы до всех нод кластера.

Следующая задача – создание SSH ключей для подключения к виртуальным машинам. Сначала на хостовой ОС необходимо сгенерировать SSH ключи. Команда ниже эквивалента команде ssh-keygen с той лишь разницей, что команда ниже сгенерирует ключи без интерактивного режима:

ssh-keygen -q -t rsa -f ~/.ssh/id_rsa <<<y >/dev/null 2>&1

Закрытый (id_rsa) и открытый (id_rsa.pub) ключи будут сохранены по умолчанию — в домашней директории пользователя в скрытой директории .ssh

Далее необходимо скопировать файл с открытым и закрытым ключом в директорию  /roles/ssh/files/keys Итого в поддиректории keys будет два файла — id_rsa и id_rsa.pub.

Роль по использованию SSH ключей описана ниже
roles/ssh/tasks/main.yaml
- name: Install OpenSSH
  apt:
	name: openssh-server
	update_cache: yes
	state: present
 
- name: Create postgres SSH directory
  file:
	mode: '0755'
	owner: postgres
	group: postgres
	path: /var/lib/postgresql/.ssh/
	state: directory
 
- name: Copy SSH private key
  copy:
	src: "keys/id_rsa"
	dest: /var/lib/postgresql/.ssh/id_rsa
	owner: postgres
	group: postgres
	mode: '0600'
 
- name: Copy SSH public key
  copy:
	src: "keys/id_rsa.pub"
	dest: /var/lib/postgresql/.ssh/id_rsa.pub
	owner: postgres
	group: postgres
	mode: '0644'
 
- name: Add key to authorized keys file
  authorized_key:
	user: postgres
	state: present
	key: "{{ lookup('file', 'keys/id_rsa.pub') }}"
 
- name: Restart SSH service
  service:
	name: sshd
	enabled: yes
	state: restarted

Порядок действий, описанный в роли, следующий:

1) Установка пакета OpenSSH.

2) Создание директории, где будут храниться SSH ключи - /var/lib/postgresql/.ssh/;

3) Копирование закрытого ключа в директорию /var/lib/postgresql/.ssh/;

4) Копирование открытого ключа в директорию /var/lib/postgresql/.ssh/;

5) Добавление открытого ключа в файл authorized_key;

6) Перезапуск демона sshd.

Следующая задача – установка и настройка repmgr.

Посмотреть
roles/repmgr/tasks/main.yaml

- name: Download repmgr repository installer

  get_url:

	dest: /tmp/repmgr-installer.sh

	mode: 0700

	url: https://dl.2ndquadrant.com/default/release/get/deb

 

- name: Execute repmgr repository installer

  shell: /tmp/repmgr-installer.sh

 

- name: Install repmgr for PostgreSQL {{ pg_version }}

  apt:

	name: postgresql-{{ pg_version }}-repmgr

	update_cache: yes

 

- name: Setup repmgr user and database

  become_user: postgres

  ignore_errors: yes

  shell: |

	createuser --replication --createdb --createrole --superuser repmgr &&

	psql -c 'ALTER USER repmgr SET search_path TO repmgr_test, "$user", public;' &&

	createdb repmgr --owner=repmgr

- name: Copy repmgr configuration

  template:

	src: repmgr.conf.j2

	dest: /etc/repmgr.conf

 

- name: Restart PostgreSQL

  systemd:

	name: postgresql

	enabled: yes

    state: restarted

Порядок действий, описанный в роли, следующий:

1) Скачивание установщика, содержащего официальный репозиторий repmgr;

2) Запуск скачанного установщика;

3) Установка пакета repmgr для 12 версии PostgreSQL;

4) Инициализация и создание репликационного кластера;

5) Копирование и использование конфигурационного файла repmgr.conf.j2, который заменит стандартный конфигурационный файл repmgr.conf;

6) Перезапуск демона PostgreSQL.

Конфигурационный файл repmgr.conf.j2 будет находиться по следующему пути roles/repmgr/templates

Содержимое файла описано ниже
roles/repmgr/templates/repmgr.conf.j2
node_id = {{ node_id }}
node_name = 'node{{ node_id }}'
conninfo = 'host={{ connection_host }} user=repmgr dbname=repmgr'
data_directory = '/var/lib/postgresql/{{ pg_version }}/main'
use_replication_slots = yes
reconnect_attempts = 5
reconnect_interval = 1
failover = automatic
pg_bindir = '/usr/lib/postgresql/{{ pg_version }}/bin'
promote_command = 'repmgr standby promote -f /etc/repmgr.conf'
follow_command = 'repmgr standby follow -f /etc/repmgr.conf'
log_level = INFO
log_file = '/var/log/postgresql/repmgr.log'
 
#monitoring_history=yes
#monitor_interval_secs=5
#log_status_interval=5
#promote_check_timeout=5
#promote_check_interval=1
#master_response_timeout=5

Последняя роль – это присвоение ролей нодам кластера.

Посмотреть
roles/repmgr/registration/main.yaml
- name: Register primary node
  become_user: postgres
  shell: repmgr primary register
  ignore_errors: yes
  when: role == "primary"
 
- name: Stop PostgreSQL
  systemd:
	name: postgresql
	state: stopped
  when: role == "standby"
 
- name: Clean up PostgreSQL data directory
  become_user: postgres
  file:
	path: /var/lib/postgresql/{{ pg_version }}/main
	force: yes
	state: absent
  when: role == "standby"
 
- name: Clone primary node data
  become_user: postgres
  shell: repmgr -h {{ node1_ip }} -U repmgr -d repmgr standby clone
  ignore_errors: yes
  when: role == "standby"
 
- name: Start PostgreSQL
  systemd:
	name: postgresql
	state: started
  when: role == "standby"
 
- name: Register {{ role }} node
  become_user: postgres
  shell: repmgr -h {{ node1_ip }} {{ role }} register -F
  ignore_errors: yes
  when: role != "primary"
 
- name: Start repmgrd
  become_user: postgres
  shell: repmgrd
  ignore_errors: yes

Порядок действий, описанный в роли, следующий:

1) Регистрация primary ноды (она же мастер-нода).

2) Остановка демона PostgreSQL.

3) Удаление всех данных из директории /var/lib/postgresql/12/main.

4) Регистрация stan-by ноды.

5) Запуск демона PostgreSQL.

6) Запуск демона repmrg.

Создание и запуск playbook

Чтобы собрать все задачи воедино, необходимо создать один общий playbook, в который будут включены все задачи и файлы, что были созданы ранее. Для этого в корневой директории (в данном примере это директория с именем postgres-cluster) необходимо создать файл с именем playbook.yaml со следующим содержанием:

postgres-cluster/playbook.yaml
---
- hosts: all
  gather_facts: yes
  become: yes
  roles:
	- postgres_12
	- ssh
	- repmgr
	- registration

В параметре roles перечислены все роли, которые будут запущены на хостах. Обратите внимание на порядок ролей.

В итоге получится следующая структура файлов:

Также в корневой директории присутствует ранее созданный Vagrantfile.

Когда все файлы будут созданы, можно запускать установку виртуальных машин и playbook Ansible. Для этого достаточно выполнить одну команду:

vagrant up

Начнется процесс установки (см. скриншот ниже). Сначала будут созданы 3 виртуальные машины, далее будет запущен playbook, который установит СУБД PostgreSQL, утилиту repmgr и настроит репликацию.

Ниже показан процесс запуска ролей Ansible:

После того как установка будет завершена, можно подключиться к любой из 3 созданных ВМ для проверки статуса репликации. Для этого необходимо ввести команду vagrant ssh node1, где node1 — это имя хоста одной из ВМ:

При подключении по SSH пароль вводить не нужно, так как был настроен вход по SSH ключам.

Для проверки статуса кластера и репликации необходимо выполнить команду:

repmgr service status

Как видно из вывода команды, у нас создался кластер PostgreSQL с 3 нодами. У каждой ноды своя роль (столбец Role).

Итог

Созданный кластер можно использовать в качестве тестовой инсталляции, а также для знакомства с утилитой репликации repmgr. Роли нод кластера при желании можно поменять. Также можно легко производить горизонтальное масштабирование – добавлять новые ноды кластера.


НЛО прилетело и оставило здесь промокод для читателей нашего блога:

— 15% на все тарифы VDS (кроме тарифа Прогрев) — HABRFIRSTVDS.

Tags:
Hubs:
Total votes 12: ↑12 and ↓0+12
Comments8

Articles

Information

Website
firstvds.ru
Registered
Founded
Employees
51–100 employees
Location
Россия
Representative
FirstJohn