环境介绍:node
系统版本: Rhel6.5bash
内核版本:3.18.3-1.el6.elrepo.x86_64服务器
Yum源:http://download.gluster.org/pub/gluster/glusterfs/3.6/3.6.9/RHEL/glusterfs-epel.repo ide
节点数量:3个,主机名分别为controller1、controller2、compute01
spa
每一个节点上有3个磁盘,都分别挂载到 /data/bric1,/data/brick2,/data/bric3上3d
采用xfs挂载方式,请安装xfsprogs-3.1.1-14.el6.x86_64.rpmserver
各节点间已经创建互信blog
安装步骤:资源
一、 在每一个节点上安装gluster服务rem
yum -y install glusterfs-server service glusterd start;chkconfig glusterdon
二、 配置可信池(就是要组成glusterfs集群的物理机,某一节点执行,本机不添加)
gluster peer probe controller2 gluster peer probe compute01 gluster peer status #查看链接状态
三、 建立glusterfs卷(此例为复制卷,副本数量为3,可用容量为总容量的三分之一)
建立两个卷,名字分别为 test01_volume、test02_volume,注意brick的顺序,如下数据副本不在同一台物理机,提供了高可用功能。
gluster volume create test01_volume replica3 \ controller1:/data/brick1/test01controller2:/data/brick1/test01 compute01:/data/brick1/test01 \ controller1:/data/brick2/test01controller2:/data/brick2/test01 compute01:/data/brick2/test01 \ controller1:/data/brick3/test01controller2:/data/brick3/test01 compute01:/data/brick3/test01 gluster volume create test02_volume replica3 \ controller1:/data/brick1/test02controller2:/data/brick1/test02 compute01:/data/brick1/test02 \ controller1:/data/brick2/test02controller2:/data/brick2/test02 compute01:/data/brick2/test02 \ controller1:/data/brick3/test02controller2:/data/brick3/test02 compute01:/data/brick3/test02
四、 查看卷信息,并启动卷
gluster volume info gluster volume start test01_volume gluster volume start test02_volume mkdir /test01 /test02 mount -t glusterfscontroller1:/test01_volume /test01 mount -t glusterfscontroller1:/test02_volume /test02
常见操做:
1、添加资源池服务器
#gluster peer probe NODE_NAME
删除资源池
gluster volume stop VOLUME_NAME gluster volume delete VOLUME_NAME gluster peer detach node3 VOLUME_NAME
2、添加brick
gluster volume add-brick VOLUME_NAMENODE_NAME:BRICK_DIR [NODE_NAME:BRICK_DIR] gluster volume remove-brick VOLUME_NAME NODE_NAME:BRICK_DIR [NODE_NAME:BRICK_DIR ]
3、rebalance卷
当扩展或者收缩一个卷(add-brick/remove-brick)之后,须要rebalance数据
gluster volume rebalance VOLUME_NAME start gluster volume rebalance VOLUME_NAME status gluster volume rebalance VOLUME_NAME stop