MySQL+MGR 单主模式和多主模式的集群环境 - 部署手册 (Centos7.5)

 

MySQL Group Replication(简称MGR)是MySQL官方于2016年12月推出的一个全新的高可用与高扩展的解决方案。MGR是MySQL官方在5.7.17版本引进的一个数据库高可用与高扩展的解决方案,以插件形式提供,实现了分布式下数据的最终一致性, 它是MySQL5.7版本出现的新特性,它提供了高可用、高扩展、高可靠的MySQL集群服务。MySQL组复制分单主模式和多主模式,mysql 的复制技术仅解决了数据同步的问题,若是 master 宕机,意味着数据库管理员须要介入,应用系统可能须要修改数据库链接地址或者重启才能实现。(这里也可使用数据库中间件产品来避免应用系统数据库链接的问题,例如 mycat 和 atlas 等产品)。组复制在数据库层面上作到了,只要集群中大多数主机可用,则服务可用,也就是说3台服务器的集群,容许其中1台宕机。html

注意:  组中server可在独立物理机运行,也可在同一台机器,同一机器采用多实例,也就是逻辑认为是独立机器; 组内每台主机,都须要先安装组复制插件.不然会致使启动失败.node

1.  MGR组复制的特色
高一致性基于分布式paxos协议实现组复制,保证数据一致性;
高容错性:自动检测机制,只要不是大多数节点都宕机就能够继续工做,内置防脑裂保护机制;
高扩展性:节点的增长与移除会自动更新组成员信息,新节点加入后,自动从其余节点同步增量数据,直到与其余节点数据一致;
高灵活性:提供单主模式和多主模式,单主模式在主库宕机后可以自动选主,全部写入都在主节点进行,多主模式支持多节点写入。mysql

2.  MGR与传统复制的区别和大幅改进
2.1 传统复制 (即异步复制)
主-从复制:有一个主和不等数量的从。主节点执行的事务会异步发送给从节点,在从节点从新执行。便是在主节点执行和提交事务,而后把他们异步的发送到从节点,行复制的从新执行主节点的SQL语句,这是一个 shared-nothing 的系统,默认状况下全部 server 成员都有一个完整的数据副本。
linux

2.2 半同步复制
它在协议中添加了一个同步步骤。 这意味着主节点在提交时须要等待从节点确认它已经接收到事务。只有这样,主节点才能继续提交操做。 半同步相对异步来讲, Master会确认Slave是否接到数据,更加安全。算法

2.3 并行复制
并行复制:复制->广播->正式复制. 并行复制的介绍可在https://www.cnblogs.com/kevingrace/p/5569652.html 文中有介绍sql

2.4 组复制 (MGR)数据库

MGR组复制原理
组复制是一种可用于实现容错系统的技术。 复制组是一个经过消息传递相互交互的 server 集群。通讯层提供了原子消息(atomic message)和彻底有序信息交互等保障机制实现了基于复制协议的多主更新 复制组由多个 server成员构成,而且组中的每一个 server 成员能够独立地执行事务。但全部读写(RW)事务只有在冲突检测成功后才会提交。只读(RO)事务不须要在冲突检测,能够当即提交。句话说,对于任何 RW 事务,提交操做并非由始发 server 单向决定的,而是由组来决定是否提交。准确地说,在始发 server 上,当事务准备好提交时,该 server 会广播写入值(已改变的行)和对应的写入集(已更新的行的惟一标识符)。而后会为该事务创建一个全局的顺序。最终,这意味着全部 server 成员以相同的顺序接收同一组事务。所以,全部 server 成员以相同的顺序应用相同的更改,以确保组内一致。bootstrap

MySQL组复制协议工做流程:vim

须要注意:MGR组复制是一种 share-nothing 复制方案,其中每一个 server 成员都有本身的完整数据副本。安全

MGR实现了基于复制协议的多主更新
->  复制组由多个 server成员构成,而且组中的每一个 server 成员能够独立地执行事务。但全部读写(RW)事务只有在冲突检测成功后才会提交。只读(RO)事务不须要在冲突检测,能够当即提交。
->  换句话说,对于任何 RW 事务,提交操做并非由始发 server 单向决定的,而是由组来决定是否提交。准确地说,在始发 server 上,当事务准备好提交时,该 server 会广播写入值(已改变的行)和对应的写入集(已更新的行的惟一标识符)。而后会为该事务创建一个全局的顺序。最终,这意味着全部 server 成员以相同的顺序接收同一组事务。所以,全部 server 成员以相同的顺序应用相同的更改,以确保组内一致。
->  组复制使您可以根据在一组 server 中复制系统的状态来建立具备冗余的容错系统。所以,只要它不是所有或多数 server 发生故障,即便有一些 server 故障,系统仍然可用,最多只是性能和可伸缩性下降,但它仍然可用。server 故障是孤立而且独立的。它们由组成员服务来监控,组成员服务依赖于分布式故障检测系统,其可以在任何 server 自愿地或因为意外中止而离开组时发出信号。
->  他们是由一个分布式恢复程序来确保当有 server 加入组时,它们会自动更新组信息到最新。而且多主更新确保了即便在单个服务器故障的状况下也不会阻止更新,没必要进行 server故障转移。所以,MySQL 组复制保证数据库服务持续可用。
->  值得注意的一点是,尽管数据库服务可用,但当有一个 server 崩溃时,链接到它的客户端必须定向或故障转移到不一样的 server。这不是组复制要解决的问题。链接器,负载均衡器,路由器或其余形式的中间件更适合处理这个问题。

总之,MGR组复制提供了高可用性,高弹性,可靠的 MySQL 服务。

MGR故障检测
故障检测是提供关于哪些 server 可能已死的信息(猜想)的分布式服务。 某个 server 无响应时触发猜想,组中其他成员进行协调决定以排除给定成员。若是某个 server 与组的其他成员隔离,则它会怀疑全部其余 server 都失败了。因为没法与组达成协议(由于它没法确保仲裁成员数),其怀疑不会产生后果。当服务器以此方式与组隔离时,它没法执行任何本地事务。 在线 server 列表一般称为视图,新成员server的加入离开,不管是自愿仍是被迫的离开,该组都会动态地从新规划其配置,并触发视图更新

MGR的限制
- 存储引擎必须为Innodb,即仅支持InnoDB表,而且每张表必定要有一个主键,用于作write set的冲突检测;
- 每一个表必须提供主键;
- 只支持ipv4,网络需求较高;
- 必须打开GTID特性,二进制日志格式必须设置为ROW,用于选主与write set;
- COMMIT可能会致使失败,相似于快照事务隔离级别的失败场景;
- 目前一个MGR集群组最多支持9个节点;
- 不支持外键于save point特性,没法作全局间的约束检测与部分部分回滚;
- 二进制日志binlog不支持Replication event checksums;
- 多主模式(也就是多写模式) 不支持SERIALIZABLE事务隔离级别;
- 多主模式不能彻底支持级联外键约束;
- 多主模式不支持在不一样节点上对同一个数据库对象并发执行DDL(在不一样节点上对同一行并发进行RW事务,后发起的事务会失败);

MGR组复制优点
-  弹性复制(高扩展性):server动态添加移除
-  高可用分片(高扩展性):分片实现写扩展,每一个分片是一个复制组。
-  替代主从复制(高扩展性):整组写入,避免单点争用。
-  自动化系统:自动化部署Mysql复制到已有复制协议的自动化系统。
-  故障检测与容错:自动检测,若服务faild,组内成员大多数达成认为该服务已不正常,则自动隔离。
-  组内成员会构成一个视图,组内成员主动加入或离开(主动或被动),都会更新组配置,更新视图。成员自愿离开,先更新组配置,而后采用大多数成员(不包含主动脱离的成员)意见是否确认该成员离开更新视图。若是是故障要排除,则需大多数服务确认(包括故障成员意见),而后才会更新组配置和视图。   
-  最大容许即时故障数:f=(n-1)/2,多数正常则正常

3.  组复制两种运行模式
->  单主模式下, 组复制具备自动选主功能,每次只有一个 server成员接受更新。单写模式group内只有一台节点可写可读,其余节点只能够读。对于group的部署,须要先跑起primary节点(即那个可写可读的节点,read_only = 0)而后再跑起其余的节点,并把这些节点一一加进group。其余的节点就会自动同步primary节点上面的变化,而后将本身设置为只读模式(read_only = 1)。当primary节点意外宕机或者下线,在知足大多数节点存活的状况下,group内部发起选举,选出下一个可用的读节点,提高为primary节点。primary选举根据group内剩下存活节点的UUID按字典序升序来选择,即剩余存活的节点按UUID字典序排列,而后选择排在最前的节点做为新的primary节点。
-> 多主模式下, 全部的 server 成员均可以同时接受更新。group内的全部机器都是primary节点,同时能够进行读写操做,而且数据是最终一致的。

按照个人理解来讲:
单主模式:比多主模式多一个选举程序,第一次引导开启集群的为主,后加入的为追随者(也能够叫从机Slave),只有住的有读写权限,别的追随者在加入组的时候自动把权限禁了。若是主的挂了,其余服务器会根据UUID和一个值(相似权重)进行从新选主。每次选主都会从新把权限禁一遍。

多主模式:全部服务器加入组时,读写权限所有放开,你们均可以读写,可是只能更改不一样行的数据,若是后加入集群的服务器改了一行数据,那前面的服务器就不能再对这行数据进行改动了,若是改动则报事务回滚取消改动,然后加入的能够改前面加入集群改过的数据。

4. 下面分别记录下 MGR 基于单主模式和多主模式的集群环境部署过程
4.1 准备环境

三台服务器
172.16.60.211     MGR-node1    server_id=1
172.16.60.212     MGR-node2    server_id=2
172.16.60.213     MGR-node3    server_id=3

[root@MGR-node1 ~]# cat /etc/redhat-release
CentOS Linux release 7.5.1804 (Core)
   
为了方便实验,关闭全部节点的防火墙
[root@MGR-node1 ~]# systemctl stop firewalld
[root@MGR-node1 ~]# firewall-cmd --state
not running
   
[root@MGR-node1 ~]# cat /etc/sysconfig/selinux |grep "SELINUX=disabled"
SELINUX=disabled
[root@MGR-node1 ~]# setenforce 0            
setenforce: SELinux is disabled
[root@MGR-node1 ~]# getenforce              
Disabled
 
特别要注意一个关键点: 必须保证各个mysql节点的主机名不一致,而且能经过主机名找到各成员!
则必需要在每一个节点的/etc/hosts里面作主机名绑定,不然后续将节点加入group组会失败!报错RECOVERING!!
[root@MGR-node1 ~]# cat /etc/hosts
........
172.16.60.211    MGR-node1
172.16.60.212    MGR-node2
172.16.60.213    MGR-node3

4.2  在三个节点上安装Mysql5.7

在三个mysql节点机上使用yum方式安装Mysql5.7,参考:https://www.cnblogs.com/kevingrace/p/8340690.html
   
安装MySQL yum资源库
[root@MGR-node1 ~]# yum localinstall https://dev.mysql.com/get/mysql57-community-release-el7-8.noarch.rpm
   
安装MySQL 5.7
[root@MGR-node1 ~]# yum install -y mysql-community-server
   
启动MySQL服务器和MySQL的自动启动
[root@MGR-node1 ~]# systemctl start mysqld.service
[root@MGR-node1 ~]# systemctl enable mysqld.service
   
设置登陆密码
因为MySQL从5.7开始不容许首次安装后使用空密码进行登陆!为了增强安全性,系统会随机生成一个密码以供管理员首次登陆使用,
这个密码记录在/var/log/mysqld.log文件中,使用下面的命令能够查看此密码:
[root@MGR-node1 ~]# cat /var/log/mysqld.log|grep 'A temporary password'
2019-01-11T05:53:17.824073Z 1 [Note] A temporary password is generated for root@localhost: TaN.k:*Qw2xs
   
使用上面查看的密码TaN.k:*Qw2xs 登陆mysql,并重置密码为123456
[root@MGR-node1 ~]# mysql -p                 #输入默认的密码:TaN.k:*Qw2xs
.............
mysql> set global validate_password_policy=0;
Query OK, 0 rows affected (0.00 sec)
   
mysql> set global validate_password_length=1;
Query OK, 0 rows affected (0.00 sec)
   
mysql> set password=password("123456");
Query OK, 0 rows affected, 1 warning (0.00 sec)
   
mysql> flush privileges;
Query OK, 0 rows affected (0.00 sec)
   
查看mysql版本
[root@MGR-node1 ~]# mysql -p123456
........
mysql> select version();
+-----------+
| version() |
+-----------+
| 5.7.24    |
+-----------+
1 row in set (0.00 sec)
  
=====================================================================
舒适提示
mysql5.7经过上面默认安装后,执行语句可能会报错:
ERROR 1819 (HY000): Your password does not satisfy the current policy requirements
  
这个报错与Mysql 密码安全策略validate_password_policy的值有关,validate_password_policy能够取0、一、2三个值:
解决办法:
set global validate_password_policy=0;
set global validate_password_length=1;

4.3  安装和配置MGR信息

1) 配置全部节点的组复制信息

MGR-node01节点
[root@MGR-node1 ~]# cp /etc/my.cnf /etc/my.cnf.bak
[root@MGR-node1 ~]# >/etc/my.cnf
[root@MGR-node1 ~]# vim /etc/my.cnf
[mysqld]
datadir = /var/lib/mysql
socket = /var/lib/mysql/mysql.sock
        
symbolic-links = 0
        
log-error = /var/log/mysqld.log
pid-file = /var/run/mysqld/mysqld.pid

#复制框架
server_id=1
gtid_mode=ON
enforce_gtid_consistency=ON
binlog_checksum=NONE

log_bin=binlog
log_slave_updates=ON
binlog_format=ROW
master_info_repository=TABLE
relay_log_info_repository=TABLE

#组复制设置
#server必须为每一个事务收集写集合,并使用XXHASH64哈希算法将其编码为散列
transaction_write_set_extraction=XXHASH64
#告知插件加入或建立组命名,UUID 
loose-group_replication_group_name="aaaaaaaa-aaaa-aaaa-aaaa-aaaaaaaaaaaa"
#server启动时不自启组复制,为了不每次启动自动引导具备相同名称的第二个组,因此设置为OFF。
loose-group_replication_start_on_boot=off
#告诉插件使用IP地址,端口24901用于接收组中其余成员转入链接
loose-group_replication_local_address="172.16.60.211:24901"
#启动组server,种子server,加入组应该链接这些的ip和端口;其余server要加入组得由组成员赞成
loose-group_replication_group_seeds="172.16.60.211:24901,172.16.60.212:24901,172.16.60.213:24901"
loose-group_replication_bootstrap_group=off
report_host=172.16.60.211
report_port=3306

如上配置完成后, 将MGR-node1节点的/etc/my.cnf文件拷贝到其余两个节点
[root@MGR-node1 ~]# rsync -e "ssh -p22" -avpgolr /etc/my.cnf root@172.16.60.212:/etc/
[root@MGR-node1 ~]# rsync -e "ssh -p22" -avpgolr /etc/my.cnf root@172.16.60.213:/etc/

3个MGR节点除了server_id、loose-group_replication_local_address、report_host 三个参数不同外,其余保持一致。
因此待拷贝完成后, 分别修改MGR-node2和MGR-node3节点/etc/my.cnf文件的server_id、loose-group_replication_local_address、report_host 三个参数

2) 配置完成后, 要一次启动数据库,安装MGR插件,设置复制帐号(全部MGR节点都要执行)
[root@MGR-node1 ~]# systemctl restart mysqld
[root@MGR-node1 ~]# mysql -p123456
.............
mysql> INSTALL PLUGIN group_replication SONAME 'group_replication.so';
Query OK, 0 rows affected (0.13 sec)

mysql> SET SQL_LOG_BIN=0;
Query OK, 0 rows affected (0.00 sec)

mysql> CREATE USER repl@'%' IDENTIFIED BY 'repl';
Query OK, 0 rows affected (0.00 sec)

mysql> GRANT REPLICATION SLAVE ON *.* TO repl@'%';
Query OK, 0 rows affected (0.00 sec)

mysql> FLUSH PRIVILEGES;
Query OK, 0 rows affected (0.00 sec)

mysql> SET SQL_LOG_BIN=1;
Query OK, 0 rows affected (0.00 sec)

mysql> CHANGE MASTER TO MASTER_USER='repl', MASTER_PASSWORD='repl' FOR CHANNEL 'group_replication_recovery';
Query OK, 0 rows affected, 2 warnings (0.21 sec)

4.4  启动MGR单主模式

1) 启动MGR,在主库(172.16.60.11)节点上上执行
[root@MGR-node1 ~]# mysql -p123456
...............
mysql> SET GLOBAL group_replication_bootstrap_group=ON;
Query OK, 0 rows affected (0.00 sec)
 
mysql> START GROUP_REPLICATION;
Query OK, 0 rows affected (2.31 sec)
 
mysql> SET GLOBAL group_replication_bootstrap_group=OFF;
Query OK, 0 rows affected (0.00 sec)
 
查看MGR组信息
mysql> SELECT * FROM performance_schema.replication_group_members;
+---------------------------+--------------------------------------+---------------+-------------+--------------+
| CHANNEL_NAME              | MEMBER_ID                            | MEMBER_HOST   | MEMBER_PORT | MEMBER_STATE |
+---------------------------+--------------------------------------+---------------+-------------+--------------+
| group_replication_applier | 8769f936-3e51-11e9-acaa-005056ac6820 | 172.16.60.211 |        3306 | ONLINE       |
+---------------------------+--------------------------------------+---------------+-------------+--------------+
1 row in set (0.01 sec)
 
2) 在其余节点加入MGR集群,在从库(172.16.60.212,172.16.60.213)上执行
[root@MGR-node2 ~]#  mysql -p123456
................
mysql> START GROUP_REPLICATION;
ERROR 3092 (HY000): The server is not configured properly to be an active member of the group. Please see more details on error log.
 
查看日志:
[root@MGR-node2 ~]# tail -2000 /var/log/mysqld.log
.....................
.....................
2019-03-04T09:11:30.683714Z 0 [ERROR] Plugin group_replication reported: 'This member has more executed transactions than those present in the group. Local transactions: 87135ebb-3e51-11e9-8931-005056880888:1-2 > Group transactions: 851d03bb-3e51-11e9-8f8d-00505688047c:1-2,
8769f936-3e51-11e9-acaa-005056ac6820:1-2,
aaaaaaaa-aaaa-aaaa-aaaa-aaaaaaaaaaaa:1-4'
2019-03-04T09:11:30.683817Z 0 [Warning] Plugin group_replication reported: 'The member contains transactions not present in the group. It is only allowed to join due to group_replication_allow_local_disjoint_gtids_join option'
 
解决办法:
mysql> set global group_replication_allow_local_disjoint_gtids_join=ON;
Query OK, 0 rows affected, 1 warning (0.00 sec)
 
而后再接着加入MGR集群
mysql> START GROUP_REPLICATION;
Query OK, 0 rows affected, 1 warning (5.14 sec)
 
3) 再次查看MGR组信息 (在三个MGR节点上均可以查看)
mysql> SELECT * FROM performance_schema.replication_group_members;
+---------------------------+--------------------------------------+---------------+-------------+--------------+
| CHANNEL_NAME              | MEMBER_ID                            | MEMBER_HOST   | MEMBER_PORT | MEMBER_STATE |
+---------------------------+--------------------------------------+---------------+-------------+--------------+
| group_replication_applier | 851d03bb-3e51-11e9-8f8d-00505688047c | 172.16.60.212 |        3306 | RECOVERING   |
| group_replication_applier | 87135ebb-3e51-11e9-8931-005056880888 | 172.16.60.213 |        3306 | RECOVERING   |
| group_replication_applier | 8769f936-3e51-11e9-acaa-005056ac6820 | 172.16.60.211 |        3306 | ONLINE       |
+---------------------------+--------------------------------------+---------------+-------------+--------------+
3 rows in set (0.00 sec)
 
发现新加入的MGR-node2 , MGR-node3两个节点在集群里的状态是RECOVERING!!!
 
查看日志
[root@MGR-node3 ~]# tail -2000 /var/log/mysqld.log
.....................
.....................
2019-03-04T09:15:35.146740Z 734 [ERROR] Slave I/O for channel 'group_replication_recovery': Got fatal error 1236 from master when
reading data from binary log: 'The slave is connecting using CHANGE MASTER TO MASTER_AUTO_POSITION = 1, but the master has
purged binary logs containing GTIDs that the slave requires.', Error_code: 1236
 
解决办法:
登陆主库172.16.60.211, 查看被purge的GTID:
[root@MGR-node1 ~]#  mysql -p123456
....................
mysql> show global variables like 'gtid_purged';
+---------------+------------------------------------------+
| Variable_name | Value                                    |
+---------------+------------------------------------------+
| gtid_purged   | 8769f936-3e51-11e9-acaa-005056ac6820:1-2 |
+---------------+------------------------------------------+
1 row in set (0.00 sec)
 
接着在两个从库172.16.60.212, 172.16.60.213的数据库上执行下面命令,即跳过这个GTID:
mysql> STOP GROUP_REPLICATION;
Query OK, 0 rows affected (10.14 sec)
 
mysql> reset master;
Query OK, 0 rows affected (0.06 sec)
 
mysql> set global gtid_purged = '8769f936-3e51-11e9-acaa-005056ac6820:1-2';
Query OK, 0 rows affected (0.24 sec)
 
mysql>  START GROUP_REPLICATION;
Query OK, 0 rows affected, 1 warning (3.49 sec)
 
再次查看查看MGR组信息 (在三个MGR节点上均可以查看),
mysql> SELECT * FROM performance_schema.replication_group_members;
+---------------------------+--------------------------------------+---------------+-------------+--------------+
| CHANNEL_NAME              | MEMBER_ID                            | MEMBER_HOST   | MEMBER_PORT | MEMBER_STATE |
+---------------------------+--------------------------------------+---------------+-------------+--------------+
| group_replication_applier | 851d03bb-3e51-11e9-8f8d-00505688047c | 172.16.60.212 |        3306 | ONLINE       |
| group_replication_applier | 87135ebb-3e51-11e9-8931-005056880888 | 172.16.60.213 |        3306 | ONLINE       |
| group_replication_applier | 8769f936-3e51-11e9-acaa-005056ac6820 | 172.16.60.211 |        3306 | ONLINE       |
+---------------------------+--------------------------------------+---------------+-------------+--------------+
3 rows in set (0.00 sec)
 
经过上面能够看出:  三个MGR节点状态为online,而且主节点为172.16.60.211,只有主节点能够写入,其余两个MGR节点只读,MGR单主模式搭建成功。

==============================================================================
验证下MGR单主模式下节点数据的同步以及读写操做:
先在主库节点172.16.60.211上建立测试数据库
[root@MGR-node1 ~]# mysql -p123456
..............
mysql> CREATE DATABASE kevin CHARACTER SET utf8 COLLATE utf8_general_ci;   
Query OK, 1 row affected (0.06 sec)

mysql> use kevin;
Database changed
mysql> create table if not exists haha (id int(10) PRIMARY KEY AUTO_INCREMENT,name varchar(50) NOT NULL);
Query OK, 0 rows affected (0.24 sec)

mysql> insert into kevin.haha values(1,"wangshibo"),(2,"guohuihui"),(3,"yangyang"),(4,"shikui"); 
Query OK, 4 rows affected (0.13 sec)
Records: 4  Duplicates: 0  Warnings: 0

mysql> select * from kevin.haha;
+----+-----------+
| id | name      |
+----+-----------+
|  1 | wangshibo |
|  2 | guohuihui |
|  3 | yangyang  |
|  4 | shikui    |
+----+-----------+
4 rows in set (0.00 sec)

接着在其余的两个从节点172.16.60.212和172.16.60.213上查看数据, 发现主库数据已经同步到两个从库上了
[root@MGR-node2 ~]# mysql -p123456
..................
mysql> select * from kevin.haha;
+----+-----------+
| id | name      |
+----+-----------+
|  1 | wangshibo |
|  2 | guohuihui |
|  3 | yangyang  |
|  4 | shikui    |
+----+-----------+
4 rows in set (0.00 sec)

而后尝试在两个从库上更新数据, 发现更新失败! 由于这是MGR单主模式, 从库只能进行读操做, 不能进行写操做!
[root@MGR-node3 ~]# mysql -p123456
.................
mysql> select * from kevin.haha;
+----+-----------+
| id | name      |
+----+-----------+
|  1 | wangshibo |
|  2 | guohuihui |
|  3 | yangyang  |
|  4 | shikui    |
+----+-----------+
4 rows in set (0.00 sec)

mysql> delete from kevin.haha where id>3;
ERROR 1290 (HY000): The MySQL server is running with the --super-read-only option so it cannot execute this statement
mysql> insert into kevin.haha values(11,"beijing"),(12,"shanghai"),(13,"anhui");
ERROR 1290 (HY000): The MySQL server is running with the --super-read-only option so it cannot execute this statement

只有在主库上才能进行写操做
[root@MGR-node1 ~]# mysql -p123456
..............
mysql> insert into kevin.haha values(11,"beijing"),(12,"shanghai"),(13,"anhui");
Query OK, 3 rows affected (0.15 sec)
Records: 3  Duplicates: 0  Warnings: 0

mysql> select * from kevin.haha;
+----+-----------+
| id | name      |
+----+-----------+
|  1 | wangshibo |
|  2 | guohuihui |
|  3 | yangyang  |
|  4 | shikui    |
| 11 | beijing   |
| 12 | shanghai  |
| 13 | anhui     |
+----+-----------+
7 rows in set (0.00 sec)

4.5 切换到多主模式
MGR切换模式须要从新启动组复制,因些须要在全部节点上先关闭组复制,设置 group_replication_single_primary_mode=OFF 等参数,再启动组复制。

1) 中止组复制(在全部MGR节点上执行):
mysql> stop group_replication;
Query OK, 0 rows affected (9.08 sec)

mysql> set global group_replication_single_primary_mode=OFF;
Query OK, 0 rows affected (0.00 sec)

mysql> set global group_replication_enforce_update_everywhere_checks=ON;
Query OK, 0 rows affected (0.00 sec)

2) 随便选择某个MGR节点执行 (好比这里选择在MGR-node1节点):
[root@MGR-node1 ~]# mysql -p123456
...............
mysql> SET GLOBAL group_replication_bootstrap_group=ON; 
Query OK, 0 rows affected (0.00 sec)

mysql> START GROUP_REPLICATION; 
Query OK, 0 rows affected (2.20 sec)

mysql> SET GLOBAL group_replication_bootstrap_group=OFF;
Query OK, 0 rows affected (0.00 sec)

3) 而后在其余的MGR节点执行 (这里指MGR-node2和MGR-node3节点上执行):
mysql> START GROUP_REPLICATION; 
Query OK, 0 rows affected, 1 warning (5.89 sec)

4) 查看MGR组信息 (在任意一个MGR节点上均可以查看)
mysql> SELECT * FROM performance_schema.replication_group_members;
+---------------------------+--------------------------------------+---------------+-------------+--------------+
| CHANNEL_NAME              | MEMBER_ID                            | MEMBER_HOST   | MEMBER_PORT | MEMBER_STATE |
+---------------------------+--------------------------------------+---------------+-------------+--------------+
| group_replication_applier | 851d03bb-3e51-11e9-8f8d-00505688047c | 172.16.60.212 |        3306 | ONLINE       |
| group_replication_applier | 87135ebb-3e51-11e9-8931-005056880888 | 172.16.60.213 |        3306 | ONLINE       |
| group_replication_applier | 8769f936-3e51-11e9-acaa-005056ac6820 | 172.16.60.211 |        3306 | ONLINE       |
+---------------------------+--------------------------------------+---------------+-------------+--------------+
3 rows in set (0.00 sec)

能够看到全部MGR节点状态都是online,角色都是PRIMARY,MGR多主模式搭建成功。

=========================================
验证下MGR多主模式的节点数据同步:
在MGR-node1节点更新数据:
[root@MGR-node1 ~]# mysql -p123456
.................
mysql> select * from kevin.haha;
+----+-----------+
| id | name      |
+----+-----------+
|  1 | wangshibo |
|  2 | guohuihui |
|  3 | yangyang  |
|  4 | shikui    |
| 11 | beijing   |
| 12 | shanghai  |
| 13 | anhui     |
+----+-----------+
7 rows in set (0.00 sec)

mysql> delete from kevin.haha where id>10;
Query OK, 3 rows affected (0.08 sec)

在MGR-node2节点更新数据
[root@MGR-node2 ~]# mysql -p123456
...............
mysql> select * from kevin.haha;
+----+-----------+
| id | name      |
+----+-----------+
|  1 | wangshibo |
|  2 | guohuihui |
|  3 | yangyang  |
|  4 | shikui    |
+----+-----------+
4 rows in set (0.00 sec)

mysql> insert into kevin.haha values(11,"beijing"),(12,"shanghai"),(13,"anhui");
Query OK, 3 rows affected (0.08 sec)
Records: 3  Duplicates: 0  Warnings: 0

在MGR-node3节点更新数据
[root@MGR-node3 ~]# mysql -p123456
.............
mysql> select * from kevin.haha;
+----+-----------+
| id | name      |
+----+-----------+
|  1 | wangshibo |
|  2 | guohuihui |
|  3 | yangyang  |
|  4 | shikui    |
| 11 | beijing   |
| 12 | shanghai  |
| 13 | anhui     |
+----+-----------+
7 rows in set (0.00 sec)

mysql> delete from kevin.haha where id>11;
Query OK, 2 rows affected (0.14 sec)

mysql> select * from kevin.haha;
+----+-----------+
| id | name      |
+----+-----------+
|  1 | wangshibo |
|  2 | guohuihui |
|  3 | yangyang  |
|  4 | shikui    |
| 11 | beijing   |
+----+-----------+
5 rows in set (0.00 sec)

如上, MGR多主模式下, 全部节点均可以进行读写操做.

4.6  切回单主模式

1) 中止组复制(在全部MGR节点上执行):
mysql> stop group_replication;
Query OK, 0 rows affected (9.29 sec)

mysql> set global group_replication_enforce_update_everywhere_checks=OFF;
Query OK, 0 rows affected (0.00 sec)

mysql> set global group_replication_single_primary_mode=ON;
Query OK, 0 rows affected (0.00 sec)

2) 选择一个节点做为主节点, 在主节点上执行 (这里选择MGR-node1节点做为主节点)
[root@MGR-node1 ~]# mysql -p123456
................
mysql> SET GLOBAL group_replication_bootstrap_group=ON; 
Query OK, 0 rows affected (0.00 sec)

mysql> START GROUP_REPLICATION; 
Query OK, 0 rows affected (2.12 sec)

mysql> SET GLOBAL group_replication_bootstrap_group=OFF;
Query OK, 0 rows affected (0.00 sec)

3) 在其余剩余的节点, 也就是从库节点上执行 (这里从库节点指的就是MGR-node2和MGR-node3):
mysql> START GROUP_REPLICATION; 
Query OK, 0 rows affected, 1 warning (6.16 sec)

4) 查看MGR组信息 (在任意一个MGR节点上均可以查看)
mysql> SELECT * FROM performance_schema.replication_group_members;
+---------------------------+--------------------------------------+---------------+-------------+--------------+
| CHANNEL_NAME              | MEMBER_ID                            | MEMBER_HOST   | MEMBER_PORT | MEMBER_STATE |
+---------------------------+--------------------------------------+---------------+-------------+--------------+
| group_replication_applier | 851d03bb-3e51-11e9-8f8d-00505688047c | 172.16.60.212 |        3306 | ONLINE       |
| group_replication_applier | 87135ebb-3e51-11e9-8931-005056880888 | 172.16.60.213 |        3306 | ONLINE       |
| group_replication_applier | 8769f936-3e51-11e9-acaa-005056ac6820 | 172.16.60.211 |        3306 | ONLINE       |
+---------------------------+--------------------------------------+---------------+-------------+--------------+
3 rows in set (0.00 sec)

这样就又切回到MGR单主模式了, 其中172.16.60.211是主节点,具备写权限. 另外两个节点172.16.60.212和172.16.60.213是从库节点, 只能读不能写.

4.7  故障切换

1) 单主模式
若是主节点挂掉了, 经过选举程序会从从库节点中选择一个做为主库节点.  以下模拟故障:

关闭主库MGR-node1的mysqld服务
[root@MGR-node1 ~]# systemctl stop mysqld

接着在其余节点上查看MGR组信息. 好比在MGR-node2节点查看 
[root@MGR-node2 ~]# mysql -p123456
mysql> SELECT * FROM performance_schema.replication_group_members;
+---------------------------+--------------------------------------+---------------+-------------+--------------+
| CHANNEL_NAME              | MEMBER_ID                            | MEMBER_HOST   | MEMBER_PORT | MEMBER_STATE |
+---------------------------+--------------------------------------+---------------+-------------+--------------+
| group_replication_applier | 851d03bb-3e51-11e9-8f8d-00505688047c | 172.16.60.212 |        3306 | ONLINE       |
| group_replication_applier | 87135ebb-3e51-11e9-8931-005056880888 | 172.16.60.213 |        3306 | ONLINE       |
+---------------------------+--------------------------------------+---------------+-------------+--------------+
2 rows in set (0.00 sec)

尝试在MGR-node2节点更新数据
mysql> select * from kevin.haha;
+----+-----------+
| id | name      |
+----+-----------+
|  1 | wangshibo |
|  2 | guohuihui |
|  3 | yangyang  |
|  4 | shikui    |
| 11 | beijing   |
| 12 | shanghai  |
| 13 | anhui     |
+----+-----------+
7 rows in set (0.00 sec)

mysql> delete from kevin.haha where id>10;
Query OK, 3 rows affected (0.06 sec)

如上, 发如今以前的主库MGR-node1节点挂掉后, MGR-node2节点能够进行写操做了, 说明此时已经选举MGR-node2节点为新的主节点了
那么,MGR-node3节点仍是从节点, 只能读不能写
[root@MGR-node3 ~]# mysql -p123456
..............
mysql> select * from kevin.haha;
+----+-----------+
| id | name      |
+----+-----------+
|  1 | wangshibo |
|  2 | guohuihui |
|  3 | yangyang  |
|  4 | shikui    |
+----+-----------+
4 rows in set (0.00 sec)

mysql> insert into kevin.haha values(11,"beijing"),(12,"shanghai"),(13,"anhui");
ERROR 1290 (HY000): The MySQL server is running with the --super-read-only option so it cannot execute this statement

而后再恢复MGR-node1节点, 恢复后, 须要手动激活下该节点的组复制功能
[root@MGR-node1 ~]# systemctl start mysqld
[root@MGR-node1 ~]# mysql -p123456
...............
mysql> START GROUP_REPLICATION;
Query OK, 0 rows affected (3.15 sec)

mysql> SELECT * FROM performance_schema.replication_group_members;
+---------------------------+--------------------------------------+---------------+-------------+--------------+
| CHANNEL_NAME              | MEMBER_ID                            | MEMBER_HOST   | MEMBER_PORT | MEMBER_STATE |
+---------------------------+--------------------------------------+---------------+-------------+--------------+
| group_replication_applier | 851d03bb-3e51-11e9-8f8d-00505688047c | 172.16.60.212 |        3306 | ONLINE       |
| group_replication_applier | 87135ebb-3e51-11e9-8931-005056880888 | 172.16.60.213 |        3306 | ONLINE       |
| group_replication_applier | 8769f936-3e51-11e9-acaa-005056ac6820 | 172.16.60.211 |        3306 | ONLINE       |
+---------------------------+--------------------------------------+---------------+-------------+--------------+
3 rows in set (0.00 sec)

mysql> select * from kevin.haha;
+----+-----------+
| id | name      |
+----+-----------+
|  1 | wangshibo |
|  2 | guohuihui |
|  3 | yangyang  |
|  4 | shikui    |
+----+-----------+
4 rows in set (0.00 sec)

mysql> insert into kevin.haha values(11,"beijing"),(12,"shanghai"),(13,"anhui");
ERROR 1290 (HY000): The MySQL server is running with the --super-read-only option so it cannot execute this statement

发现MGR-node1节点恢复后, 则变为了从库节点, 只能读不能写.

若是从节点挂了, 恢复后, 只须要手动激活下该节点的组复制功能("START GROUP_REPLICATION;"), 
便可正常加入到MGR组复制集群内并自动同步其余节点数据.

=============================================================
2)  多主模式
 若是某个节点挂了, 则其余的节点继续进行同步. 
 当故障节点恢复后, 只须要手动激活下该节点的组复制功能("START GROUP_REPLICATION;"), 
 便可正常加入到MGR组复制集群内并自动同步其余节点数据.

                                                               基于Mysql8.0, 安装MGR 单主/多主模式的集群环境                                                            

上面案例是基于Mysql5.7版本的操做记录, 若是换成Mysql8.0版本, 则稍微有些地方不同.
Mysql8.0版本按照上面的操做, 在实操中没有出现报错.
 
Mysql8.0安装手册: https://www.cnblogs.com/kevingrace/p/10482469.html
 
查看组信息, 会显示主从角色: PRIMARY 和 SECONDARY
 
单主模式
mysql> SELECT * FROM performance_schema.replication_group_members;
+---------------------------+--------------------------------------+---------------+-------------+--------------+-------------+----------------+
| CHANNEL_NAME              | MEMBER_ID                            | MEMBER_HOST   | MEMBER_PORT | MEMBER_STATE | MEMBER_ROLE | MEMBER_VERSION |
+---------------------------+--------------------------------------+---------------+-------------+--------------+-------------+----------------+
| group_replication_applier | 9d9e69cb-3fb2-11e9-9420-005056ac6820 | 172.16.60.211 |        3306 | ONLINE       | PRIMARY     | 8.0.15         |
| group_replication_applier | a5edb094-3fb2-11e9-9ddf-00505688047c | 172.16.60.212 |        3306 | ONLINE       | SECONDARY   | 8.0.15         |
| group_replication_applier | a8e04386-3fb2-11e9-9eb3-005056880888 | 172.16.60.213 |        3306 | ONLINE       | SECONDARY   | 8.0.15         |
+---------------------------+--------------------------------------+---------------+-------------+--------------+-------------+----------------+
3 rows in set (0.00 sec)
 
多主模式
mysql> SELECT * FROM performance_schema.replication_group_members;
+---------------------------+--------------------------------------+---------------+-------------+--------------+-------------+----------------+
| CHANNEL_NAME              | MEMBER_ID                            | MEMBER_HOST   | MEMBER_PORT | MEMBER_STATE | MEMBER_ROLE | MEMBER_VERSION |
+---------------------------+--------------------------------------+---------------+-------------+--------------+-------------+----------------+
| group_replication_applier | 9d9e69cb-3fb2-11e9-9420-005056ac6820 | 172.16.60.211 |        3306 | ONLINE       | PRIMARY     | 8.0.15         |
| group_replication_applier | a5edb094-3fb2-11e9-9ddf-00505688047c | 172.16.60.212 |        3306 | ONLINE       | PRIMARY     | 8.0.15         |
| group_replication_applier | a8e04386-3fb2-11e9-9eb3-005056880888 | 172.16.60.213 |        3306 | ONLINE       | PRIMARY     | 8.0.15         |
+---------------------------+--------------------------------------+---------------+-------------+--------------+-------------+----------------+
3 rows in set (0.00 sec)

若是节点发生故障, 在恢复后须要从新加入到MGR集群里, 正确的作法是:
先stop组复制, 而后再start组复制! 否则可能会形成加入到集群后的状态是"RECOVERING"!

正确的作法: 
mysql> stop GROUP_REPLICATION; 
Query OK, 0 rows affected (8.18 sec)

mysql> START GROUP_REPLICATION;
Query OK, 0 rows affected (4.16 sec)

                                                               设置MGR组集群的白名单网段: 添加节点所在网段                                                           

或者出现报错:  '[GCS] The member is leaving a group without being on one.'
这是由于没有设置白名单网段:须要添加节点本身所在网段.
 
在任意一个MGR节点上执行:
[root@MGR-node1 ~]# mysql -p123456
.................
 
# 添加白名单网段
mysql> stop group_replication;
Query OK, 0 rows affected (9.41 sec)
 
mysql> set global group_replication_ip_whitelist="127.0.0.1/32,172.16.60.0/24,172.16.50.0/24,172.16.51.0/24";
Query OK, 0 rows affected (0.00 sec)
 
mysql> start group_replication; 
Query OK, 0 rows affected (3.37 sec)
 
mysql> show variables like "group_replication_ip_whitelist";
+--------------------------------+-----------------------------------------------------------+
| Variable_name                  | Value                                                     |
+--------------------------------+-----------------------------------------------------------+
| group_replication_ip_whitelist | 127.0.0.1/32,172.16.60.0/24,172.16.50.0/24,172.16.51.0/24 |
+--------------------------------+-----------------------------------------------------------+
1 row in set (0.01 sec)

group_replication_ip_whitelist = <ip,net,...>  
表示设置白名单,若不配置默认为AUTOMATIC,自动识别本机网口的私网地址和私网网段,127.0.0.1 链接请求始终被容许,
必定要注意: 配置白名单前面必定要先关闭 Group Replication, 及先要执行"stop group_replication;"

也能够在/etc/my.cnf文件里配置白名单信息.
相关文章
相关标签/搜索