1、环境简述mysql
一、工做逻辑图sql
二、MySQL-MMM优缺点数据库
优势:高可用性,扩展性好,出现故障自动切换,对于主主同步,在同一时间只提供一台数据库写操做,保证的数据的一致性。安全
缺点:Monitor节点是单点,能够结合Keepalived实现高可用。bash
三、MySQL-MMM工做原理服务器
MMM(Master-Master replication managerfor Mysql,Mysql主主复制管理器)是一套灵活的脚本程序,基于perl实现,用来对mysql replication进行监控和故障迁移,并能管理mysql Master-Master复制的配置(同一时间只有一个节点是可写的)。网络
mmm_mond:监控进程,负责全部的监控工做,决定和处理全部节点角色活动。此脚本须要在监管机上运行。架构
mmm_agentd:运行在每一个mysql服务器上的代理进程,完成监控的探针工做和执行简单的远端服务设置。此脚本须要在被监管机上运行。负载均衡
mmm_control:一个简单的脚本,提供管理mmm_mond进程的命令。工具
mysql-mmm的监管端会提供多个虚拟IP(VIP),包括一个可写VIP,多个可读VIP,经过监管的管理,这些IP会绑定在可用mysql之上,当某一台mysql宕机时,监管会将VIP迁移至其余mysql。
在整个监管过程当中,须要在mysql中添加相关受权用户,以便让mysql能够支持监理机的维护。受权的用户包括一个mmm_monitor用户和一个mmm_agent用户,若是想使用mmm的备份工具则还要添加一个mmm_tools用户。
四、需求描述
操做系统:CentOS 6.5_X64
数据库:MySQL 5.1
MMM:MySQL-MMM 2.2.1
数据库分配:
function |
ip |
hostname |
server id |
monitoring host |
192.168.0.201 |
monitor |
无 |
master 1 |
192.168.0.202 |
db1 |
1 |
master 2 |
192.168.0.203 |
db2 |
2 |
slave 1 |
192.168.0.204 |
db3 |
3 |
slave 2 |
192.168.0.205 |
db4 |
4 |
虚拟IP地址(VIP):
ip |
role |
192.168.0.211 |
writer |
192.168.0.212 |
reader |
192.168.0.213 |
reader |
数据库同步须要的用户:
function |
description |
privileges |
monitor user |
mmm监控用于对mysql服务器进程健康检查 |
REPLICATION CLIENT |
agent user |
mmm代理用来更改只读模式,复制的主服务器等 |
SUPER, REPLICATION CLIENT, PROCESS |
replication user |
用于复制 |
REPLICATION SLAVE
|
2、db1,db2,db3和db4安装数据库并配置
3、配置db1和db2主主同步
#先查看下log bin日志和pos值位置
db1配置以下:
db2配置以下:
#主主同步配置完毕,查看同步状态Slave_IO和Slave_SQL是YES说明主主同步成功。
在db2插入数据测试下:
在db2查看是否同步成功:
能够看到已经成功同步过去,一样在db2插入到user表数据,也能同步过去。咱们的双主就成功了,开始作主从复制。
4、配置slave1和slave2作为master1的从库
#先看下master1状态值
在slave1和slave2分别执行:
在slave1和slave2查看以下说明主从复制成功。可是数据没过来,这是由于主从复制原理只同步配置完后的增删改记录,之后的数据是不能同步的,咱们能够把主的数据库备份了,而后在送数据库还原。
5、MySQL-MMM安装配置
CentOS默认没有mysql-mmm软件包,官方推荐使用epel的网络源,五台都安装epel:
rpm -ivh http://mirrors.ustc.edu.cn/fedora/epel/6/x86_64/epel-release-6-8.noarch.rpm
一、monitor节点安装
[root@monitor ~]# yum -y install mysql-mmm-monitor
二、四台db节点安装
[root@db1 ~]# yum -y install mysql-mmm-agent
三、在四台db节点受权monitor访问
四、修改mmm_common.conf文件(五台相同)
#经过scp命令传送到其余四台:
scp /etc/mysql-mmm/mmm_common.conf root@192.168.0.202/203/204/205:/etc/mysql-mmm/
五、修改四台db代理端mmm_agent.conf文件
六、修改管理端mmm_mon.conf文件
6、启动MySQL-MMM
一、db代理端启动
[root@db1 ~]# /etc/init.d/mysql-mmm-agent start
[root@db1 ~]# chkconfigmysql-mmm-agent on
二、monitor管理端启动
[root@monitor ~]# /etc/init.d/mysql-mmm-monitor start
[root@monitor ~]# chkconfigmysql-mmm-monitor on
7、测试集群
一、查看集群状态
由此看来,主db1是对外一个写入的角色,但不真正提供只写,要想实现读写分离还须要结合amoeba。后面的虚拟IP是真正来访问Mysql数据库的。
二、故障转移切换
停掉主db1数据库,等待几秒后,能够看到数据库db1处于HARD_OFFLINE(离线状态),检测不到数据库的存在。
启动主db1数据库后,能够看到数据库db1处于AWAITING_RECOVER(恢复状态),几秒后将恢复在线状态。模拟Slave故障也是如此,DOWN掉一个,虚拟IP会所有在另外一台正常数据库上。
至此,MySQL-MMM架构配置完毕。后续会写在此基础上实现读写分离、负载均衡机制。如图: