基于Patroni的PostgreSQL高可用环境部署

1. 前言

PostgreSQL是一款功能,性能,可靠性均可以和高端的国外商业数据库相媲美的开源数据库。并且PostgreSQL的许可和生态彻底开放,不被任何一个单一的公司或国家所操控,保证了使用者没有后顾之忧。国内愈来愈多的企业开始用PostgreSQL代替原来昂贵的国外商业数据库。php

在部署PostgreSQL到生产环境中时,选择适合的高可用方案是一项必不可少的工做。本文介绍基于Patroni的PostgreSQL高可用的部署方法,供你们参考。html

PostgreSQL的开源HA工具备不少种,下面几种算是比较经常使用的node

  • PAF(PostgreSQL Automatic Failomianver)
  • repmgr
  • Patroni

它们的比较能够参考: https://scalegrid.io/blog/managing-high-availability-in-postgresql-part-1/python

其中Patroni不只简单易用并且功能很是强大。linux

  • 支持自动failover和按需switchover
  • 支持一个和多个备节点
  • 支持级联复制
  • 支持同步复制,异步复制
  • 支持同步复制下备库故障时自动降级为异步复制(功效相似于MySQL的半同步,可是更加智能)
  • 支持控制指定节点是否参与选主,是否参与负载均衡以及是否能够成为同步备机
  • 支持经过pg_rewind自动修复旧主
  • 支持多种方式初始化集群和重建备机,包括pg_basebackup和支持wal_epgBackRestbarman等备份工具的自定义脚本
  • 支持自定义外部callback脚本
  • 支持REST API
  • 支持经过watchdog防止脑裂
  • 支持k8s,docker等容器化环境部署
  • 支持多种常见DCS(Distributed Configuration Store)存储元数据,包括etcd,ZooKeeper,Consul,Kubernetes

所以,除非只有2台机器没有多余机器部署DCS的状况,Patroni是一款很是值得推荐的PostgreSQL高可用工具。下面将详细介绍基于Patroni搭建PostgreSQL高可用环境的步骤。web

2. 实验环境

主要软件sql

  • CentOS 7.8
  • PostgreSQL 12
  • Patroni 1.6.5
  • etcd 3.3.25

机器和VIP资源docker

  • PostgreSQL数据库

    • node1:192.168.234.201
    • node2:192.168.234.202
    • node3:192.168.234.203
  • etcdbootstrap

    • node4:192.168.234.204
  • VIP

    • 读写VIP:192.168.234.210
    • 只读VIP:192.168.234.211

环境准备

全部节点设置时钟同步

yum install -y ntpdate
ntpdate time.windows.com && hwclock -w

若是使用防火墙须要开放postgres,etcd和patroni的端口。

  • postgres:5432
  • patroni:8008
  • etcd:2379/2380

更简单的作法是将防火墙关闭

setenforce 0
sed -i.bak "s/SELINUX=enforcing/SELINUX=permissive/g" /etc/selinux/config
systemctl disable firewalld.service
systemctl stop firewalld.service
iptables -F

3. etcd部署

由于本文的主题不是etcd的高可用,因此只在node4上部署单节点的etcd用于实验。生产环境至少须要部署3个节点,可使用独立的机器也能够和数据库部署在一块儿。etcd的部署步骤以下

安装须要的包

yum install -y gcc python-devel epel-release

安装etcd

yum install -y etcd

编辑etcd配置文件/etc/etcd/etcd.conf, 参考配置以下

ETCD_DATA_DIR="/var/lib/etcd/default.etcd"
ETCD_LISTEN_PEER_URLS="http://192.168.234.204:2380"
ETCD_LISTEN_CLIENT_URLS="http://localhost:2379,http://192.168.234.204:2379"
ETCD_NAME="etcd0"
ETCD_INITIAL_ADVERTISE_PEER_URLS="http://192.168.234.204:2380"
ETCD_ADVERTISE_CLIENT_URLS="http://192.168.234.204:2379"
ETCD_INITIAL_CLUSTER="etcd0=http://192.168.234.204:2380"
ETCD_INITIAL_CLUSTER_TOKEN="cluster1"
ETCD_INITIAL_CLUSTER_STATE="new"

启动etcd

systemctl start etcd

设置etcd自启动

systemctl enable etcd

3. PostgreSQL + Patroni HA部署

在须要运行PostgreSQL的实例上安装相关软件

安装PostgreSQL 12

yum install -y https://download.postgresql.org/pub/repos/yum/reporpms/EL-7-x86_64/pgdg-redhat-repo-latest.noarch.rpm

yum install -y postgresql12-server postgresql12-contrib

安装Patroni

yum install -y gcc epel-release
yum install -y python-pip python-psycopg2 python-devel

pip install --upgrade pip
pip install --upgrade setuptools
pip install patroni[etcd]

建立PostgreSQL数据目录

mkdir -p /pgsql/data
chown postgres:postgres -R /pgsql
chmod -R 700 /pgsql/data

建立Partoni service配置文件/etc/systemd/system/patroni.service

[Unit]
Description=Runners to orchestrate a high-availability PostgreSQL
After=syslog.target network.target
 
[Service]
Type=simple
User=postgres
Group=postgres
#StandardOutput=syslog
ExecStart=/usr/bin/patroni /etc/patroni.yml
ExecReload=/bin/kill -s HUP $MAINPID
KillMode=process
TimeoutSec=30
Restart=no
 
[Install]
WantedBy=multi-user.target

建立Patroni配置文件/etc/patroni.yml,如下是node1的配置示例

scope: pgsql
namespace: /service/
name: pg1

restapi:
  listen: 0.0.0.0:8008
  connect_address: 192.168.234.201:8008

etcd:
  host: 192.168.234.204:2379

bootstrap:
  dcs:
    ttl: 30
    loop_wait: 10
    retry_timeout: 10
    maximum_lag_on_failover: 1048576
    master_start_timeout: 300
    synchronous_mode: false
    postgresql:
      use_pg_rewind: true
      use_slots: true
      parameters:
        listen_addresses: "0.0.0.0"
        port: 5432
        wal_level: logical
        hot_standby: "on"
        wal_keep_segments: 100
        max_wal_senders: 10
        max_replication_slots: 10
        wal_log_hints: "on"

  initdb:
  - encoding: UTF8
  - locale: C
  - lc-ctype: zh_CN.UTF-8
  - data-checksums

  pg_hba:
  - host replication repl 0.0.0.0/0 md5
  - host all all 0.0.0.0/0 md5

postgresql:
  listen: 0.0.0.0:5432
  connect_address: 192.168.234.201:5432
  data_dir: /pgsql/data
  bin_dir: /usr/pgsql-12/bin

  authentication:
    replication:
      username: repl
      password: "123456"
    superuser:
      username: postgres
      password: "123456"

  basebackup:
    max-rate: 100M
    checkpoint: fast

tags:
    nofailover: false
    noloadbalance: false
    clonefrom: false
    nosync: false

完整的参数含有可参考Patroni手册中的 YAML Configuration Settings,其中PostgreSQL参数可根据须要自行补充。

其余PG节点的patroni.yml须要相应修改下面3个参数

  • name
    • node1~node4分别设置pg1~pg4
  • restapi.connect_address
    • 根据各自节点IP设置
  • postgresql.connect_address
    • 根据各自节点IP设置

启动Patroni

先在node1上启动Patroni。

systemctl start patroni

初次启动Patroni时,Patroni会初始建立PostgreSQL实例和用户。

[root@node1 ~]# systemctl status patroni
● patroni.service - Runners to orchestrate a high-availability PostgreSQL
   Loaded: loaded (/etc/systemd/system/patroni.service; disabled; vendor preset: disabled)
   Active: active (running) since Sat 2020-09-05 14:41:03 CST; 38min ago
 Main PID: 1673 (patroni)
   CGroup: /system.slice/patroni.service
           ├─1673 /usr/bin/python2 /usr/bin/patroni /etc/patroni.yml
           ├─1717 /usr/pgsql-12/bin/postgres -D /pgsql/data --config-file=/pgsql/data/postgresql.conf --listen_addresses=0.0.0.0 --max_worker_processe...
           ├─1719 postgres: pgsql: logger
           ├─1724 postgres: pgsql: checkpointer
           ├─1725 postgres: pgsql: background writer
           ├─1726 postgres: pgsql: walwriter
           ├─1727 postgres: pgsql: autovacuum launcher
           ├─1728 postgres: pgsql: stats collector
           ├─1729 postgres: pgsql: logical replication launcher
           └─1732 postgres: pgsql: postgres postgres 127.0.0.1(37154) idle

再在node2上启动Patroni。node2将做为replica加入集群,自动从leader拷贝数据并创建复制。

[root@node2 ~]# systemctl status patroni
● patroni.service - Runners to orchestrate a high-availability PostgreSQL
   Loaded: loaded (/etc/systemd/system/patroni.service; disabled; vendor preset: disabled)
   Active: active (running) since Sat 2020-09-05 16:09:06 CST; 3min 41s ago
 Main PID: 1882 (patroni)
   CGroup: /system.slice/patroni.service
           ├─1882 /usr/bin/python2 /usr/bin/patroni /etc/patroni.yml
           ├─1898 /usr/pgsql-12/bin/postgres -D /pgsql/data --config-file=/pgsql/data/postgresql.conf --listen_addresses=0.0.0.0 --max_worker_processe...
           ├─1900 postgres: pgsql: logger
           ├─1901 postgres: pgsql: startup   recovering 000000010000000000000003
           ├─1902 postgres: pgsql: checkpointer
           ├─1903 postgres: pgsql: background writer
           ├─1904 postgres: pgsql: stats collector
           ├─1912 postgres: pgsql: postgres postgres 127.0.0.1(35924) idle
           └─1916 postgres: pgsql: walreceiver   streaming 0/3000060

查看集群状态

[root@node2 ~]# patronictl -c /etc/patroni.yml list
+ Cluster: pgsql (6868912301204081018) -------+----+-----------+
| Member |       Host      |  Role  |  State  | TL | Lag in MB |
+--------+-----------------+--------+---------+----+-----------+
|  pg1   | 192.168.234.201 | Leader | running |  1 |           |
|  pg2   | 192.168.234.202 |        | running |  1 |       0.0 |
+--------+-----------------+--------+---------+----+-----------+

为了方便平常操做,设置全局环境变量PATRONICTL_CONFIG_FILE

echo 'export PATRONICTL_CONFIG_FILE=/etc/patroni.yml' >/etc/profile.d/patroni.sh

添加如下环境变量到~postgres/.bash_profile

export PGDATA=/pgsql/data
export PATH=/usr/pgsql-12/bin:$PATH

设置postgres拥有免密的sudoer权限

echo 'postgres        ALL=(ALL)       NOPASSWD: ALL'> /etc/sudoers.d/postgres

4. 自动切换和脑裂防御

Patroni在主库故障时会自动执行failover,确保服务的高可用。可是自动failover若是控制不当会有产生脑裂的风险。所以Patroni在保障服务的可用性和防止脑裂的双重目标下会在特定场景下执行一些自动化动做。

故障位置 场景 Patroni的动做
备库 备库PG中止 中止备库PG
备库 中止备库Patroni 中止备库PG
备库 强杀备库Patroni(或Patroni crash) 无操做
备库 备库没法链接etcd 无操做
备库 非Leader角色可是PG处于生产模式 重启PG并切换到恢复模式做为备库运行
主库 主库PG中止 重启PG,重启超过master_start_timeout设定时间,进行主备切换
主库 中止主库Patroni 中止主库PG,并触发failover
主库 强杀主库Patroni(或Patroni crash) 触发failover,此时出现"双主"
主库 主库没法链接etcd 将主库降级为备库,并触发failover
- etcd集群故障 将主库降级为备库,此时集群中所有都是备库。
- 同步模式下无可用同步备库 临时切换主库为异步复制,在恢复为同步复制以前自动failover暂不生效

4.1 Patroni如何防止脑裂

部署在数据库节点上的patroni进程会执行一些保护操做,确保不会出现多个“主库”

  1. 非Leader节点的PG处于生产模式时,重启PG并切换到恢复模式做为备库运行
  2. Leader节点的patroni没法链接etcd时,不能确保本身仍然是Leader,将本机的PG降级为备库
  3. 正常中止patroni时,patroni会顺便把本机的PG进程也停掉

然而,当patroni进程自身没法正常工做时,以上的保护措施难以获得贯彻。好比patroni进程异常终止或主机临时hang等。

为了更可靠的防止脑裂,Patroni支持经过Linux的watchdog监视patroni进程的运行,当patroni进程没法正常往watchdog设备写入心跳时,由watchdog触发Linux重启。具体的配置方法以下

设置Patroni的systemd service配置文件/etc/systemd/system/patroni.service

[Unit]
Description=Runners to orchestrate a high-availability PostgreSQL
After=syslog.target network.target
 
[Service]
Type=simple
User=postgres
Group=postgres
#StandardOutput=syslog
ExecStartPre=-/usr/bin/sudo /sbin/modprobe softdog
ExecStartPre=-/usr/bin/sudo /bin/chown postgres /dev/watchdog
ExecStart=/usr/bin/patroni /etc/patroni.yml
ExecReload=/bin/kill -s HUP $MAINPID
KillMode=process
TimeoutSec=30
Restart=no
 
[Install]
WantedBy=multi-user.target

设置Patroni自启动

systemctl enable patroni

修改Patroni配置文件/etc/patroni.yml,添加如下内容

watchdog:
  mode: automatic # Allowed values: off, automatic, required
  device: /dev/watchdog
  safety_margin: 5

safety_margin指若是Patroni没有及时更新watchdog,watchdog会在Leader key过时前多久触发重启。在本例的配置下(ttl=30,loop_wait=10,safety_margin=5)下,patroni进程每隔10秒(loop_wait)都会更新Leader key和watchdog。若是Leader节点异常致使patroni进程没法及时更新watchdog,会在Leader key过时的前5秒触发重启。重启若是在5秒以内完成,Leader节点有机会再次得到Leader锁,不然Leader key过时后,由备库经过选举选出新的Leader。

这套机制基本上能够保证不会出现"双主",可是这个保证是依赖于watchdog的可靠性的,从生产实践上这个保证对绝大部分场景多是足够的,可是从理论上难以证实它100%可靠。

另外一方面,自动重启机器的方式会不会太暴力致使"误杀"呢?好比因为突发的业务访问致使机器负载太高,进而致使patroni进程不能及时分配到CPU资源,此时自动重启机器就未必是咱们指望的行为。

那么,有没有其它更可靠的防止脑裂的手段呢?

4.2 利用PostgreSQL同步复制防止脑裂

防止脑裂的另外一个手段是把PostgreSQL集群配置成同步复制模式。利用同步复制模式下的主库在没有同步备库应答日志时写入会阻塞的特色,在数据库内部确保即便出现“双主”也不会发生"双写"。采用这种方式防止脑裂是最可靠最安全的,代价是同步复制相对异步复制会下降一点性能。具体设置方法以下

初始运行Patroni时,在Patroni配置文件/etc/patroni.yml中设置同步模式

synchronous_mode:true

对于已部署的Patroni能够经过patronictl命令修改配置

patronictl edit-config -s 'synchronous_mode=true'

此配置下,若是同步备库临时不可用,Patroni会把主库的复制模式降级成了异步复制,确保服务不中断。效果相似于MySQL的半同步复制,可是相比MySQL使用固定的超时时间控制复制降级,这种方式更加智能,同时还具备防脑裂的功效。

在同步模式下,只有同步备库具备被提高为主库的资格。所以若是主库被降级为异步复制,因为没有同步备库做为候选主库failover不会被触发,也就不会出现“双主”。若是主库没有被降级为异步复制,那么即便出现“双主”,因为旧主处于同步复制模式,数据没法被写入,也不会出现“双写”。

Patroni经过动态调整PostgreSQL参数synchronous_standby_names控制同步异步复制的切换。而且Patroni会把同步的状态记录到etcd中,确保同步状态在Patroni集群中的一致性。

正常的同步模式的元数据示例以下:

[root@node4 ~]# etcdctl get /service/cn/sync
{"leader":"pg1","sync_standby":"pg2"}

备库故障致使主库临时降级为异步复制的元数据以下:

[root@node4 ~]# etcdctl get /service/cn/sync
{"leader":"pg1","sync_standby":null}

若是集群中包含3个以上的节点,还能够考虑采起更严格的同步策略,禁止Patroni把同步模式降级为异步。这样能够确保任何写入的数据至少存在于2个以上的节点。对数据安全要求极高的业务能够采用这种方式。

synchronous_mode:true
synchronous_mode_strict:true

若是集群包含异地的灾备节点,能够根据须要配置该节点为不参与选主,不参与负载均衡,也不做为同步备库。

tags:
    nofailover: true
    noloadbalance: true
    clonefrom: false
    nosync: true

4.2 etcd不可访问的影响

当Patroni没法访问etcd时,将不能确认本身所处的角色。为了防止这种状态下产生脑裂,若是本机的PG是主库,Patroni会把PG降级为备库。若是集群中全部Patroni节点都没法访问etcd,集群中将所有都是备库,业务没法写入数据。这就要求etcd集群具备很是高的可用性,特别是当咱们用一套中心的etcd集群管理几百几千套PG集群的时候。

当咱们使用集中式的一套etcd集群管理不少套PG集群时,为了预防etcd集群故障带来的严重影响,能够考虑设置超大的retry_timeout参数,好比1万天,同时经过同步复制模式防止脑裂。

retry_timeout:864000000
synchronous_mode:true

retry_timeout用于控制操做DCS和PostgreSQL的重试超时。Patroni对须要重试的操做,除了时间上的限制还有重试次数的限制。对于PostgreSQL操做,目前彷佛只有调用GET /patroni的REST API时会重试,并且最多只重试1次,因此把retry_timeout调大不会带来其余反作用。

5. 平常操做

平常维护时能够经过patronictl命令控制Patroni和PostgreSQL,好比修改PotgreSQL参数。

[postgres@node2 ~]$ patronictl --help
Usage: patronictl [OPTIONS] COMMAND [ARGS]...

Options:
  -c, --config-file TEXT  Configuration file
  -d, --dcs TEXT          Use this DCS
  -k, --insecure          Allow connections to SSL sites without certs
  --help                  Show this message and exit.

Commands:
  configure    Create configuration file
  dsn          Generate a dsn for the provided member, defaults to a dsn of...
  edit-config  Edit cluster configuration
  failover     Failover to a replica
  flush        Discard scheduled events (restarts only currently)
  history      Show the history of failovers/switchovers
  list         List the Patroni members for a given Patroni
  pause        Disable auto failover
  query        Query a Patroni PostgreSQL member
  reinit       Reinitialize cluster member
  reload       Reload cluster member configuration
  remove       Remove cluster from DCS
  restart      Restart cluster member
  resume       Resume auto failover
  scaffold     Create a structure for the cluster in DCS
  show-config  Show cluster configuration
  switchover   Switchover to a replica
  version      Output version of patronictl command or a running Patroni...

5.1 修改PostgreSQL参数

修改个别节点的参数,能够执行ALTER SYSTEM SET ... SQL命令,好比临时打开某个节点的debug日志。对于须要统一配置的参数应该经过patronictl edit-config设置,确保全局一致,好比修改最大链接数。

patronictl edit-config -p 'max_connections=300'

修改最大链接数后须要重启才能生效,所以Patroni会在相关的节点状态中设置一个Pending restart标志。

[postgres@node2 ~]$ patronictl list
+ Cluster: pgsql (6868912301204081018) -------+----+-----------+-----------------+
| Member |       Host      |  Role  |  State  | TL | Lag in MB | Pending restart |
+--------+-----------------+--------+---------+----+-----------+-----------------+
|  pg1   | 192.168.234.201 | Leader | running | 25 |           |        *        |
|  pg2   | 192.168.234.202 |        | running | 25 |       0.0 |        *        |
+--------+-----------------+--------+---------+----+-----------+-----------------+

重启集群中全部PG实例后,参数生效。

patronictl restart pgsql

5.2 查看Patroni节点状态

一般咱们能够同patronictl list查看每一个节点的状态。可是若是想要查看更详细的节点状态信息,须要调用REST API。好比在Leader锁过时时存活节点却没法成为Leader,查看详细的节点状态信息有助于调查缘由。

curl -s http://127.0.0.1:8008/patroni | jq

输出示例以下:

[root@node2 ~]# curl -s http://127.0.0.1:8008/patroni | jq
{
  "database_system_identifier": "6870146304839171063",
  "postmaster_start_time": "2020-09-13 09:56:06.359 CST",
  "timeline": 23,
  "cluster_unlocked": true,
  "watchdog_failed": true,
  "patroni": {
    "scope": "cn",
    "version": "1.6.5"
  },
  "state": "running",
  "role": "replica",
  "xlog": {
    "received_location": 201326752,
    "replayed_timestamp": null,
    "paused": false,
    "replayed_location": 201326752
  },
  "server_version": 120004
}

上面的"watchdog_failed": true,表明使用了watchdog可是却没法访问watchdog设备,该节点没法被提高为Leader。

6. 客户端访问配置

HA集群的主节点是动态的,主备发生切换时,客户端对数据库的访问也须要可以动态链接到新主上。有下面几种常见的实现方式,下面分别。

  • 多主机URL

  • vip

  • haproxy

6.1 多主机URL

pgjdbc和libpq驱动能够在链接字符串中配置多个IP,由驱动识别数据库的主备角色,链接合适的节点。

JDBC

JDBC的多主机URL功能全面,支持failover,读写分离和负载均衡。能够经过参数配置不一样的链接策略。

libpq

libpq的多主机URL功能相对pgjdbc弱一点,只支持failover。

基于libpq实现的其余语言的驱动相应地也能够支持多主机URL,好比python和php。下面是python程序使用多主机URL建立链接的例子

import psycopg2

conn=psycopg2.connect("postgres://192.168.234.201:5432,192.168.234.202:5432/postgres?target_session_attrs=read-write&password=123456")

6.2 VIP(经过Patroni回调脚本实现VIP漂移)

多主机URL的方式部署简单,可是不是每种语言的驱动都支持,并且若是数据库出现意外的“双主”,配置多主机URL的客户端在多个主上同时写入的几率比较高,而若是客户端经过VIP的方式访问则在VIP上又多了一层防御(这种风险通常在数据库的HA组件没防御好时发生,正如前面介绍的,若是咱们配置的是Patroni的同步模式,基本上没有这个担心)。

Patroni支持用户配置在特定事件发生时触发回调脚本。所以咱们能够配置一个回调脚本,在主备切换后动态加载VIP。

准备加载VIP的回调脚本/pgsql/loadvip.sh

#!/bin/bash

VIP=192.168.234.210
GATEWAY=192.168.234.2
DEV=ens33

action=$1
role=$2
cluster=$3

log()
{
  echo "loadvip: $*"|logger
}

load_vip()
{
ip a|grep -w ${DEV}|grep -w ${VIP} >/dev/null
if [ $? -eq 0 ] ;then
  log "vip exists, skip load vip"
else
  sudo ip addr add ${VIP}/32 dev ${DEV} >/dev/null
  rc=$?
  if [ $rc -ne 0 ] ;then
    log "fail to add vip ${VIP} at dev ${DEV} rc=$rc"
    exit 1
  fi

  log "added vip ${VIP} at dev ${DEV}"

  arping -U -I ${DEV} -s ${VIP} ${GATEWAY} -c 5 >/dev/null
  rc=$?
  if [ $rc -ne 0 ] ;then
    log "fail to call arping to gateway ${GATEWAY} rc=$rc"
    exit 1
  fi
  
  log "called arping to gateway ${GATEWAY}"
fi
}

unload_vip()
{
ip a|grep -w ${DEV}|grep -w ${VIP} >/dev/null
if [ $? -eq 0 ] ;then
  sudo ip addr del ${VIP}/32 dev ${DEV} >/dev/null
  rc=$?
  if [ $rc -ne 0 ] ;then
    log "fail to delete vip ${VIP} at dev ${DEV} rc=$rc"
    exit 1
  fi

  log "deleted vip ${VIP} at dev ${DEV}"
else
  log "vip not exists, skip delete vip"
fi
}

log "loadvip start args:'$*'"

case $action in
  on_start|on_restart|on_role_change)
    case $role in
      master)
        load_vip
        ;;
      replica)
        unload_vip
        ;;
      *)
        log "wrong role '$role'"
        exit 1
        ;;
    esac
    ;;
  *)
    log "wrong action '$action'"
    exit 1
    ;;
esac

修改Patroni配置文件/etc/patroni.yml,配置回调函数

postgresql:
...
  callbacks:
    on_start: /bin/bash /pgsql/loadvip.sh
    on_restart: /bin/bash /pgsql/loadvip.sh
    on_role_change: /bin/bash /pgsql/loadvip.sh

全部节点的Patroni配置文件都修改后,从新加载Patroni配置文件

patronictl reload pgsql

执行switchover后,能够看到VIP发生了漂移

/var/log/messages:

Sep  5 21:32:24 localvm postgres: loadvip: loadvip start args:'on_role_change master pgsql'
Sep  5 21:32:24 localvm systemd: Started Session c7 of user root.
Sep  5 21:32:24 localvm postgres: loadvip: added vip 192.168.234.210 at dev ens33
Sep  5 21:32:25 localvm patroni: 2020-09-05 21:32:25,415 INFO: Lock owner: pg1; I am pg1
Sep  5 21:32:25 localvm patroni: 2020-09-05 21:32:25,431 INFO: no action.  i am the leader with the lock
Sep  5 21:32:28 localvm postgres: loadvip: called arping to gateway 192.168.234.2

注意,若是直接中止主库上的Patroni,上面的脚本不会摘除VIP。主库上的Patroni被停掉后会触发备库failover成为新主,此时新旧主2台机器上都有VIP,可是因为新主执行了arping,通常不会影响应用访问。尽管如此,操做上仍是须要注意避免。

6.3 VIP(经过keepalived实现VIP漂移)

Patroni提供了用于健康检查的REST API,能够根据节点角色返回正常(200)和异常的HTTP状态码

  • GET /GET /leader

    运行中且是leader节点

  • GET /replica

    运行中且是replica角色,且没有设置tag noloadbalance

  • GET /read-only

    GET /replica相似,可是包含leader节点

使用REST API,Patroni能够和外部组件搭配使用。好比能够配置keepalived动态在主库或备库上绑VIP。

关于Patroni的REST API接口详细,参考Patroni REST API

下面的例子在一主一备集群(node1和node2)中动态在备节点上绑只读VIP(192.168.234.211),当备节点故障时则将只读VIP绑在主节点上。

安装keepalived

yum install -y keepalived

准备keepalived配置文件/etc/keepalived/keepalived.conf

global_defs {
    router_id LVS_DEVEL
}
vrrp_script check_leader {
    script "/usr/bin/curl -s http://127.0.0.1:8008/leader -v 2>&1|grep '200 OK' >/dev/null"
    interval 2
    weight 10
}
vrrp_script check_replica {
    script "/usr/bin/curl -s http://127.0.0.1:8008/replica -v 2>&1|grep '200 OK' >/dev/null"
    interval 2
    weight 5
}
vrrp_script check_can_read {
    script "/usr/bin/curl -s http://127.0.0.1:8008/read-only -v 2>&1|grep '200 OK' >/dev/null"
    interval 2
    weight 10
}
vrrp_instance VI_1 {
    state BACKUP
    interface ens33
    virtual_router_id 211
    priority 100
    advert_int 1
    track_script {
        check_can_read
        check_replica
    }
    virtual_ipaddress {
       192.168.234.211
    }
}

启动keepalived

systemctl start keepalived

上面的配置方法也能够用于读写vip的漂移,只要把track_script中的脚本换成check_leader便可。可是在网络抖动或其它临时故障时keepalived管理的VIP容易飘,所以我的更推荐使用Patroni回调脚本动态绑定读写VIP。若是有多个备库,也能够在keepalived中配置LVS对全部备库进行负载均衡,过程就不展开了。

6.4 haproxy

haproxy做为服务代理和Patroni配套使用能够很方便地支持failover,读写分离和负载均衡,也是Patroni社区做为Demo的方案。缺点是haproxy自己也会占用资源,全部数据流量都通过haproxy,性能上会有必定损耗。

下面配置经过haproxy访问一主两备PG集群的例子。

安装haproxy

yum install -y haproxy

编辑haproxy配置文件/etc/haproxy/haproxy.cfg

global
    maxconn 100
    log     127.0.0.1 local2

defaults
    log global
    mode tcp
    retries 2
    timeout client 30m
    timeout connect 4s
    timeout server 30m
    timeout check 5s

listen stats
    mode http
    bind *:7000
    stats enable
    stats uri /

listen pgsql
    bind *:5000
    option httpchk
    http-check expect status 200
    default-server inter 3s fall 3 rise 2 on-marked-down shutdown-sessions
    server postgresql_192.168.234.201_5432 192.168.234.201:5432 maxconn 100 check port 8008
    server postgresql_192.168.234.202_5432 192.168.234.202:5432 maxconn 100 check port 8008
    server postgresql_192.168.234.203_5432 192.168.234.203:5432 maxconn 100 check port 8008

listen pgsql_read
    bind *:6000
    option httpchk GET /replica
    http-check expect status 200
    default-server inter 3s fall 3 rise 2 on-marked-down shutdown-sessions
    server postgresql_192.168.234.201_5432 192.168.234.201:5432 maxconn 100 check port 8008
    server postgresql_192.168.234.202_5432 192.168.234.202:5432 maxconn 100 check port 8008
    server postgresql_192.168.234.203_5432 192.168.234.203:5432 maxconn 100 check port 8008

若是只有2个节点,上面的GET /replica 须要改为GET /read-only,不然备库故障时就没法提供只读访问了,可是这样配置主库也会参与读,不能彻底分离主库的读负载。

启动haproxy

systemctl start haproxy

haproxy自身也须要高可用,能够把haproxy部署在node1和node2 2台机器上,经过keepalived控制VIP(192.168.234.210)在node1和node2上漂移。

准备keepalived配置文件/etc/keepalived/keepalived.conf

global_defs {
    router_id LVS_DEVEL
}
vrrp_script check_haproxy {
    script "pgrep -x haproxy"
    interval 2
    weight 10
}
vrrp_instance VI_1 {
    state BACKUP
    interface ens33
    virtual_router_id 210
    priority 100
    advert_int 1
    track_script {
        check_haproxy
    }
    virtual_ipaddress {
       192.168.234.210
    }
}

启动keepalived

systemctl start keepalived

下面作个简单的测试。从node4上经过haproxy的5000端口访问PG,会连到主库上

[postgres@node4 ~]$ psql "host=192.168.234.210 port=5000 password=123456" -c 'select inet_server_addr(),pg_is_in_recovery()'
 inet_server_addr | pg_is_in_recovery
------------------+-------------------
 192.168.234.201  | f
(1 row)

经过haproxy的6000端口访问PG,会轮询链接2个备库

[postgres@node4 ~]$ psql "host=192.168.234.210 port=6000 password=123456" -c 'select inet_server_addr(),pg_is_in_recovery()'
 inet_server_addr | pg_is_in_recovery
------------------+-------------------
 192.168.234.202  | t
(1 row)


[postgres@node4 ~]$ psql "host=192.168.234.210 port=6000 password=123456" -c 'select inet_server_addr(),pg_is_in_recovery()'
 inet_server_addr | pg_is_in_recovery
------------------+-------------------
 192.168.234.203  | t
(1 row)

haproxy部署后,能够经过它的web接口 http://192.168.234.210:7000/查看统计数据

7. 级联复制

一般集群中全部的备库都从主库复制数据,可是特定的场景下咱们可能须要部署级联复制。基于Patroni搭建的PG集群支持2种形式的级联复制。

7. 1 集群内部的级联复制

能够指定某个备库优先从指定成员而不是Leader节点复制数据。相应的配置示例以下:

tags:
    replicatefrom: pg2

replicatefrom只对节点处于Replica角色时有效,并不影响该节点参与Leader选举并成为Leader。当replicatefrom指定的复制源节点故障时,Patroni会自动修改PG切换到从Leader节点复制。

7.2 集群间的级联复制

咱们还能够建立一个只读的备集群,从另外一个指定的PostgreSQL实例复制数据。这能够用于建立跨数据中心的灾备集群。相应的配置示例以下:

初始建立一个备集群,能够在Patroni配置文件/etc/patroni.yml中加入如下配置

bootstrap:
  dcs:
    standby_cluster:
      host: 192.168.234.210
      port: 5432
      primary_slot_name: slot1
      create_replica_methods:
      - basebackup

上面的hostport是上游复制源的主机和端口号,若是上游数据库是配置了读写VIP的PG集群,能够将读写VIP做为host避免主集群主备切换时影响备集群。

复制槽选项primary_slot_name是可选的,若是配置了复制槽,须要同时在主集群上配置持久slot,确保在新主上始终保持slot。

slots:
  slot1:
    type: physical

对于已配置好的级联集群,可使用patronictl edit-config命令动态添加standby_cluster设置把主集群变成备集群;以及删除standby_cluster设置把备集群变成主集群。

standby_cluster:
  host: 192.168.234.210
  port: 5432
  primary_slot_name: slot1
  create_replica_methods:
  - basebackup

8. 参考

相关文章
相关标签/搜索