五、pgpool-II高可用性(一)数据库的高可用性

官网示例html

1、实现原理

使用 pgpool-II 软件;咱们经常使用来实现流复制的高可用性;备库只读的,不可写;就是当主库出现问题时;须要把备库自动激活为主库;来接管服务。node

这在其余高可用软件也有这功能,而 pgpool-II 在配置文件 pgpool.conf 中提供配置项 failover_command 。让用户配置一个脚本,当发生故障切换时,执行该脚本。sql

2、示例演练

本示例采用 PostgreSQL12 + pgpool-II4。shell

演练目的:数据库

  1. 搭建 pgpool 集群
  2. 测试数据库的高可用性
  3. 修复 primary 节点从新加入集群

2.一、环境规划

一、PostgreSQL库的IP/Port规划

主机名 角色 ip 端口 数据目录
node3 pgpool 192.168.1.221 9999
node3 primary 192.168.1.221 6000 /data1/postgres/data
node4 standby 192.168.1.202 6000 /data1/postgres/data

二、数据库用户规划

用户 密码 用途详情
postgres 123456 用于在线恢复
replica replica 流复制用户
pgpool 123456 Pgpool-II health check (health_check_user) replication delay check (sr_check_user)

2.二、数据库环境准备

一、安装 PostgreSQL 软件

N/A服务器

二、安装 pgpool-II 软件

查看 《 pgpool-II安装 》app

本示例涉及到在线恢复;须要安装 pgpool_recoveryssh

-- 在 primary 操做
psql -c "create extension pgpool_recovery" template1

三、配置 PostgreSQL 数据库

primary 节点操做post

建立数据库用户测试

alter user postgres password '123456';
CREATE ROLE pgpool WITH LOGIN password '123456';;
CREATE ROLE replica WITH REPLICATION LOGIN password 'replica';
--If you want to show "replication_state" and "replication_sync_state" column in SHOW POOL NODES command result, role pgpool needs to be PostgreSQL super user or or in pg_monitor group (Pgpool-II 4.1 or later)
GRANT pg_monitor TO pgpool;

配置归档
搭建流复制是不须要配置归档;可是在线恢复须要归档日志。

$ mkdir /data1/archivedir
$ vi postgresql.conf
archive_mode = on              
archive_command = 'cp %p /data1/archivedir/%f'
wal_log_hints = on

四、搭建流复制

--在 standby 操做
# 用 root 操做系统用户在202建立PostgreSQL工做目录
mkdir -p /data1/postgres/data
chown -R postgres:postgres /data1/postgres/data
chmod 700 /data1/postgres/data
# 用 postgres 操做系统用户执行 pg_basebackup 命令;进行备库拷贝
pg_basebackup -F p -R --progress -D /data1/postgres/data -h 192.168.1.221 -p 6000 -U replica
# 用 postgres 操做系统户用启动备库
pg_ctl start

五、配置 ssh 互信

在上面讲到的 实现原理,使用Pgpool-II的自动故障转移和在线恢复;须要 pgpool 服务免密码在各个机器上执行;以及后续在在线恢复功能;这里咱们使用 postgres 操做用户。

-- 在pgpool节点执行
$ cd ~/.ssh
$ ssh-keygen -t rsa -f id_rsa_pgpool
$ ssh-copy-id -i id_rsa_pgpool.pub postgres@node3
$ ssh-copy-id -i id_rsa_pgpool.pub postgres@node4
-- 验证免密码登陆
ssh postgres@serverX -i ~/.ssh/id_rsa_pgpool

六、配置 pgpool

能够查考 《 pgpool 配置 》;这里咱们是用 postgres 操做用户进行安装

配置环境变量

export PGHOME=/opt/pg12
export PGDATA=/data1/postgres/data
export PGPOOLHOME=/opt/pgpool
export PATH=$PGHOME/bin:$PATH:$HOME/bin:$PGPOOLHOME/bin

一、设置 pcp 的管理用户/密码文件 pcp.conf
“pcpadm/pgpool123”

#1 进入配置目录
[postgres@node3 ~]$ cd /opt/pgpool/etc
[postgres@node3 etc]$ cp pcp.conf.sample pcp.conf
# 在该文件中;用户/密码出如今每一行; # USERID:MD5PASSWD
#2 pg_md5 生成配置的用户名密码是 pgpool123 
[postgres@node3 etc]$ pg_md5 pgpool123
fa039bd52c3b2090d86b0904021a5e33
#3 编辑pcp.conf;这里配置用户是 pcpadm,
[postgres@node3 etc]$ vi pcp.conf
# USERID:MD5PASSWD
pcpadm:fa039bd52c3b2090d86b0904021a5e33

二、配置 pool_hba.conf
用于认证用户登陆方式,如客户端IP限制等,相似于postgresql的pg_hba.conf文件

[postgres@node3 ~]$ cd /opt/pgpool/etc/
[postgres@node3 etc]$ vi pool_hba.conf
# 添加下面内容
host    all     all     0.0.0.0/0       md5

三、生成 pool_passwd
pgpool 密钥文件;经过 pgpool 访问须要用户验证;

这里暂用数据库用户 pgpool

[postgres@node3 ~]$ cd /opt/pgpool/etc/
[postgres@node3 etc]$ pg_md5 --md5auth -u pgpool -p
password: 
[postgres@node3 etc]$ ll pool_passwd 
-rw-r--r--. 1 postgres postgres 132 Nov 30 10:43 pool_passwd

四、配置.pgpass
使用pgpool-II进行故障库自动切换(failover)、或在线恢复(online recovery)(在线恢复:主库故障后切换,原主库恢复后变动为备库。注意是 Online recovery,而不是自动恢复,须要手工执行命令恢复),须要可以无密码 SSH 访问其余 PostgreSQL 服务器。为了知足此条件,咱们须要在每一个 PostgreSQL 服务器上,在 postgres 用户的 home file下建立了.pgpass 文件,并修改器文件权限为600

# su - postgres
$ vi /var/lib/pgsql/.pgpass
server1:5432:replication:repl:<repl user password>
server2:5432:replication:repl:<repl user passowrd>
server3:5432:replication:repl:<repl user passowrd>
$ chmod 600  /var/lib/pgsql/.pgpass

若设置 pg_hba.conf 的该网段免密码验证 trust;能够忽略该步骤

host  replication  replica  192.168.1.0/24  trust

五、配置 pcp 的 .pcppass
须要 follow_master_command 脚本状况下,因为此脚本必须在不输入密码的状况下执行pcp命令,因此咱们在 postgres 用户的home directory下建立.pcppass

# echo 'localhost:9898:pgpool:pgpool' > ~/.pcppass
# chmod 600 ~/.pcppass

六、配置pgpool.conf

listen_addresses = '*'
port = 9999
backend_hostname0 = '192.168.1.221'
backend_port0 = 6000
backend_weight0 = 1
backend_data_directory0 = '/data1/postgres/data'
backend_flag0 = 'ALLOW_TO_FAILOVER'
backend_application_name0 = 'server0'
backend_hostname1 = '192.168.1.202'
backend_port1 = 6000
backend_weight1 = 1
backend_data_directory1 = '/data1/postgres/data'
backend_flag1 = 'ALLOW_TO_FAILOVER'
backend_application_name1 = 'server1'
enable_pool_hba = on
pool_passwd = 'pool_passwd'
pid_file_name = '/opt/pgpool/pgpool.pid'
logdir = '/opt/pgpool'
replication_mode = off
load_balance_mode = on
master_slave_mode = on
master_slave_sub_mode = 'stream'
sr_check_period = 10
sr_check_user = 'pgpool'
sr_check_password = '123456'
sr_check_database = 'postgres'
delay_threshold = 10000000
health_check_period = 5
health_check_user = 'pgpool'
health_check_password = '123456'
health_check_database = 'postgres'
health_check_max_retries = 3
failover_command = '/opt/pgpool/failover.sh %d %h %p %D %m %H %M %P %r %R %N %S'
# If we use 3 PostgreSQL servers, we need to specify follow_primary_command to run after failover on the primary node failover. 
# In case of two PostgreSQL servers, follow_primary_command setting is not necessary
# follow_primary_command = '/opt/pgpool/follow_primary.sh %d %h %p %D %m %H %M %P %r %R'
# online recovery
recovery_user = 'postgres'
recovery_password = '123456'
recovery_1st_stage_command = ''
recovery_2nd_stage_command = ''
recovery_timeout = 90

七、配置 failover_command 脚本

[postgres@node3 ~]$ cd $PGPOOLHOME
[postgres@node3 pgpool]$ cp etc/failover.sh.sample failover.sh
[postgres@node3 pgpool]$ vi failover.sh 
 修改变量 PGHOME
[postgres@node3 pgpool]$ chmod +x failover.sh 

2.三、启动 pgpool

[postgres@node3 ~]$ pgpool -n > /tmp/pgpool.log  &
[postgres@node3 ~]$ psql -p 9999 postgres  pgpool
2020-12-01 14:50:09: pid 2422: LOG:  new connection received
2020-12-01 14:50:09: pid 2422: DETAIL:  connecting host=[local]
psql (12.2)
Type "help" for help.
postgres=> show pool_nodes;
 node_id |   hostname    | port | status | lb_weight |  role   | select_cnt | load_balance_node | replication_delay | replication_state | replication_syn
c_state | last_status_change  
---------+---------------+------+--------+-----------+---------+------------+-------------------+-------------------+-------------------+----------------
--------+---------------------
 0       | 192.168.1.221 | 6000 | up     | 0.500000  | primary | 0          | false             | 0                 |                   |                
        | 2020-12-01 14:38:09
 1       | 192.168.1.202 | 6000 | up     | 0.500000  | standby | 0          | true              | 0                 |                   |                
        | 2020-12-01 14:38:09
(2 rows)

2.四、测试高可用性

一、备份自动激活为主库

咱们先把主库停掉,看看备库是否能够激活为主库;

[postgres@node3 ~]$ pg_ctl stop
waiting for server to shut down..... done
server stopped
# 再次查看节点信息
[postgres@node3 ~]$ psql -p 9999 postgres  pgpool
2020-12-01 14:53:57: pid 2591: LOG:  new connection received
2020-12-01 14:53:57: pid 2591: DETAIL:  connecting host=[local]
psql (12.2)
Type "help" for help.
postgres=> show pool_nodes;
 node_id |   hostname    | port | status | lb_weight |  role   | select_cnt | load_balance_node | replication_delay | replication_state | replication_syn
c_state | last_status_change  
---------+---------------+------+--------+-----------+---------+------------+-------------------+-------------------+-------------------+----------------
--------+---------------------
 0       | 192.168.1.221 | 6000 | down   | 0.500000  | standby | 0          | false             | 0                 |                   |                
        | 2020-12-01 14:53:07
 1       | 192.168.1.202 | 6000 | up     | 0.500000  | primary | 0          | true              | 0                 |                   |                
        | 2020-12-01 14:53:07
(2 rows)

测试结果: 备库成功激活为新主库
从上面的查询结果能够看到 “node_id=1”的 role 变成了 “primary”

二、原主库重加回集群

如今咱们把原主库加回集群,变成备库。后面再演示 online recovery。先手动执行

一、同步时间线

202 备库提高为新主库;其时间线 +1;与 221 不一样步;这是须要使用pg_rewind同步数据

[postgres@node3 ~]$ pg_rewind --target-pgdata $PGDATA --source-server='host=192.168.1.202 port=6000 user=postgres dbname=postgres password=123456'
pg_rewind: servers diverged at WAL location 0/18000000 on timeline 1
pg_rewind: rewinding from last common checkpoint at 0/17000148 on timeline 1
pg_rewind: Done!

二、配置 postgresql.conf

# 192.168.1.221 
$ cd $PGDATA
$ touch standby.signal
$ vi postgresql.conf
primary_conninfo = 'host=192.168.1.202 port=6000 user=replica'

三、启动 postgresql

[postgres@node3 ~]$ pg_ctl start

后续讲解online recovery。未完待续...

相关文章
相关标签/搜索