GlusterFS 分布式文件系统的卷类型及配置详解

1、GlusterFS相关概念:node

GlusterFS 是一个开源的分布式文件系统,同时也是Scale-Out存储解决方案Gluster的核心,在存储数据方面有强大的横向扩展能力。GlusterFS主要由存储服务器、客户端及NFS/Samba存储网关(可选组件)组成。GlusterFS架构中最大的设计特色是没有元数据服务器组件,也就是说没有主/从服务器之分,每个节点均可以是主服务器。
.
一、Gluster相关参考文档以下(我下面的配置是基于本地yum配置的,若须要搭建最新版本,可直接按照下面的文档连接进行配置):
.
Gluster官网 :https://wiki.centos.org/SpecialInterestGroup/Storage/gluster-Quickstart
基于centos7/Redhat安装Gluster官方文档:https://blog.csdn.net/daydayup_gzm/article/details/52748812
.
二、 GlusterFS相关术语:
.vim

Brick(存储块):指可信主机池中由主机提供的用于物理存储的专用分区。
Volume(逻辑卷):一个逻辑卷是一组Brick的集合。卷是数据存储的逻辑设备。
FUSE:是一个内核模块,容许用户本身建立文件系统,无须修改内核代码。
Glusterd(后台管理进程):在存储群集中的每一个节点上都要运行。
VFS:内核空间对用户空间提供的访问磁盘的接口。centos

三、GlusterFS的卷类型:服务器

  • 分布式卷:至关于Windows中的跨区卷,只是扩大了磁盘空间,不具备容错能力;
  • 条带卷:至关于Windows中的带区卷,属于RAID 0级别,一份文件会在多个磁盘上进行读写,文件越大,读写效率越高,但不具备容错能力;
  • 复制卷:至关于Windows中的镜像卷,属于RAID 1级别,具备容错能力,读性能高,但写性能降低,由于要将同一份文件同步写入在多个Brick上。
  • 分布式条带卷:brick server数量是条带数(数据块分布的brick数量)的倍数,兼具分布式卷和条带卷的特色。
  • 分布式复制卷:brick server数量是镜像数(数据副本数量)的倍数,兼具分布式卷和复制卷的特色。
  • 条带复制卷:相似于RAID 10,同时具有条带卷和复制卷的特色。
  • 分布式条带复制卷:三种基本卷的复合卷,一般用于map reduce应用。
    在以上几种卷类型中,有些可能没法理解透彻,可是不要紧,在生产环境中,大多数公司考虑到磁盘的利用率,会使用RAID5,或者RAID 10,关于RAID 5卷的配置能够参考:GlusterFS Dispersed Volume(纠错卷)总结。

四、下面介绍GlusterFS一些卷类型的特色(不包括RAID5):架构

一、分布式卷(相似Windows中的跨区卷):
.
分布式卷是GlusterFS的默认卷,在建立卷时,默认选项是建立分布式卷。在该模式下,并无对文件进行分块处理,文件直接存储在某个server节点上。
.
分布式卷具备以下特色:
.tcp

一、文件分布在不一样的服务器,不具有冗余性。
二、更容易且廉价地扩展卷的大小。
三、单点故障会形成数据丢失。
四、依赖底层的数据保护。分布式

二、条带卷(相似Windows中的带区卷,也称为RAID 0):
.
stripe模式至关于RAID 0,在该模式下,根据偏移量将文件分红N块(N个条带节点),轮询地存储在每一个Brick Server节点。节点把每一个数据块都做为普通文件存入本地文件系统,经过扩展属性记录总块数和每块的序号。在配置时指定条带数必须等于卷中Brick 所包含的存储服务器数,在存储大文件时,性能尤其突出,可是不具有冗余性。
.
条带卷具备以下特色:
.ide

一、数据被分割成更小块分布到块服务器群中的不一样条带区。
二、分布减小了负载且更小的文件加速了存取的速度。
三、没有数据冗余。性能

三、复制卷(相似于Windows中的镜像卷,也称为RAID 1)
.
复制模式,即同一文件保存一份或多份副本,每一个节点上保存相同的内容和目录结构。复制模式由于要保存副本,因此磁盘利用率较低,若是多个节点上的存储空间不一致,那么将按照木桶效应取最低节点的容量做为该卷的总容量。复制卷具备冗余性,即便一个节点损坏,也不影响数据的正常使用。
.
复制卷具备以下特色:ui

一、卷中全部的服务器均保存一个完整的副本。
二、卷的副本数量可由客户建立的时候决定。
三、至少有两个块服务器或更多服务器。
四、具有冗余性。
四、分布式复制卷(也称为RAID 10):

分布式复制卷兼顾分布式卷和复制卷的功能,主要用于须要冗余的状况下。
.
2、GlusterFS各类卷类型的部署及客户端挂载使用:
.
环境以下:
GlusterFS 分布式文件系统的卷类型及配置详解
相关信息:
GlusterFS 分布式文件系统的卷类型及配置详解
磁盘挂载信息:
GlusterFS 分布式文件系统的卷类型及配置详解
.
准备工做:
一、在全部节点上进行操做:根据上表中添加磁盘,经过fdisk命令进行分区,mkfs格式化,建立相应的挂载目录,并将格式化的磁盘挂载到相应的目录中,最后修改/etc/fstab配置文件,使其永久挂载。
可参考博文:http://www.javashuo.com/article/p-zkvihauk-bg.html
二、配置防火墙放行流量
三、本地yum仓库:https://pan.baidu.com/s/1ZzURDjGsue7cPnVPdKFCvA (提取码:309q)
开始部署:
.
node1的配置:

配置hosts文件
[root@node1 /]# vim /etc/hosts                 # 添加四个节点的解析
...............      //  省略部份内容
192.168.1.10    node1
192.168.1.20    node2
192.168.1.30    node3
192.168.1.40    node4
[root@node1 /]# mount /dev/sr0 /media/           # 挂在本地yum仓库
mount: /dev/sr0 is write-protected, mounting read-only
[root@node1 /]# rm -rf /etc/yum.repos.d/*         #删除原有yum配置文件(或者移走也行)
[root@node1 /]# vim /etc/yum.repos.d/a.repo           # 编写yum配置文件
[yum]
baseurl=file:///media
gpgcheck=0

[root@node1 /]# yum -y install glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma      # yum安装 gluster,全部节点都须要作
[root@node1 /]# systemctl start glusterd                  # 启动服务
[root@node1 /]# systemctl enable glusterd

node2的配置:
.
由于全部节点大部分配置都是相同的,因此咱们可使用scp命令来将配置好的节点文件复制来使用

[root@node2 /]# scp root@192.168.1.10:/etc/hosts /etc/              # 将hosts解析文件复制过来
The authenticity of host '192.168.1.10 (192.168.1.10)' can't be established.
ECDSA key fingerprint is 68:df:0f:ac:c7:75:df:02:88:7d:36:6a:1a:ae:27:23.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added '192.168.1.10' (ECDSA) to the list of known hosts.
root@192.168.1.10's password:             # 输入密码
hosts                                                100%  234     0.2KB/s   00:00    
[root@node2 /]# rm -rf /etc/yum.repos.d/*
[root@node2 /]# scp root@192.168.1.10:/etc/yum.repos.d/* /etc/yum.repos.d/
root@192.168.1.10's password: 
a.repo                                               100%   39     0.0KB/s   00:00    
[root@node2 /]# mount /dev/sr0 /media                   # 挂载yum仓库
[root@node2 /]# yum -y install glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma     # 安装软件
[root@node2 /]# systemctl start glusterd          # 启动服务
[root@node2 /]# systemctl enable glusterd

node3和node4照着node2配置操做就能够
.
添加节点(接下来的全部配置,在任意一台节点上执行均可以,我这里在node1上执行):

[root@node1 /]# gluster peer probe node1
peer probe: success. Probe on localhost not needed             # 表示当前就在node1上,已经存在,不须要再添加了
[root@node1 /]# gluster peer probe node2
peer probe: success. 
[root@node1 /]# gluster peer probe node3
peer probe: success. 
[root@node1 /]# gluster peer probe node4
peer probe: success. 
[root@node1 /]# gluster peer status             # 添加完毕后查看群集状态
Number of Peers: 3

Hostname: node2
Uuid: b25b967a-0ec6-4e2e-841f-b13368ec6d73
State: Peer in Cluster (Connected)             #若是某个节点显示Disconnected,请检查hosts配置文件

Hostname: node3
Uuid: 3ce5c3aa-c1da-4112-825d-998e71220423
State: Peer in Cluster (Connected)

Hostname: node4
Uuid: 0c543cae-ec0c-4249-8600-605e0f552b11
State: Peer in Cluster (Connected)

建立卷:
一、建立分布式卷:

[root@node1 /]# gluster volume create dis-volume node1:/e6 node2:/e6 force        # force:强制      ; 其中“dis-volume”为卷名,没有指定类型,默认建立的是分布式卷。
volume create: dis-volume: success: please start the volume to access data
[root@node1 /]# gluster volume info dis-volume             # 查看该卷相关信息,经过修改卷名也能够查看其它卷的信息

Volume Name: dis-volume
Type: Distribute
Volume ID: 09a6443c-a544-475d-9084-28892ce0093f
Status: Started
Snapshot Count: 0
Number of Bricks: 2
Transport-type: tcp
Bricks:
Brick1: node1:/e6
Brick2: node2:/e6
Options Reconfigured:
transport.address-family: inet
nfs.disable: on
[root@node1 /]# gluster volume start dis-volume             # 启用该卷
volume start: dis-volume: success

二、建立条带卷:

[root@node1 /]# gluster volume create stripe-volume stripe 2 node1:/d5 node2:/d5 force
volume create: stripe-volume: success: please start the volume to access data
#建立条带卷,指定条带卷的个数为2个。“stripe-volume”为卷名
#指定类型为stripe,数值为2,并且后面跟了2个brick  server,因此建立的是条带卷
[root@node1 /]# gluster volume start stripe-volume                    # 启用该卷
volume start: stripe-volume: success

三、建立复制卷:

[root@node1 /]# gluster volume create rep-volume replica 2 node3:/d5 node4:/d5 force
volume create: rep-volume: success: please start the volume to access data
#指定类型为“replica”,数值为“2”,并且后面跟了两个brick server,因此建立的是复制卷
[root@node1 /]# gluster volume start  rep-volume              # 启用该卷
volume start: rep-volume: success

四、建立分布式条带卷:

[root@node1 /]# gluster volume create dis-stripe stripe 2 node1:/b3 node2:/b3 node3:/b3 node4:/b3 force
volume create: dis-stripe: success: please start the volume to access data
#指定类型为stripe,数值为2,并且后面跟了4个brick server,因此建立的是分布式条带卷
[root@node1 /]# gluster volume start dis-stripe               # 启用
volume start: dis-stripe: success

五、建立分布式复制卷:

[root@node1 /]# gluster volume create dis-rep replica 2 node1:/c4 node2:/c4 node3:/c4 node4:/c4 force
volume create: dis-rep: success: please start the volume to access data
#指定类型为replica,数值为2,并且后面跟了4个brick  server,是2的两倍,因此建立的是分布式复制卷
[root@node1 /]# gluster volume start dis-rep
volume start: dis-rep: success

至此须要的卷就建立完毕了。
.
部署 Gluster 客户端:
.
一、安装客户端软件

[root@client /]# rm -rf /etc/yum.repos.d/*
[root@client /]# scp root@192.168.1.10:/etc/yum.repos.d/* /etc/yum.repos.d/
root@192.168.1.10's password: 
a.repo                                               100%   39     0.0KB/s   00:00  
# 挂载本地yum仓库
[root@client /]# yum -y install glusterfs glusterfs-fuse            # yum安装客户端

二、建立挂载目录:

[root@client /]# mkdir -p /test/{dis,stripe,rep,dis_and_stripe,dis_and_rep}
[root@client /]# ls /test/
dis  dis_and_rep  dis_and_stripe  rep  stripe

三、修改hosts文件:(直接scp复制也能够)

[root@client /]# scp root@192.168.1.10:/etc/hosts /etc/
The authenticity of host '192.168.1.10 (192.168.1.10)' can't be established.
ECDSA key fingerprint is 68:df:0f:ac:c7:75:df:02:88:7d:36:6a:1a:ae:27:23.
Are you sure you want to continue connecting (yes/no)? yesd
Warning: Permanently added '192.168.1.10' (ECDSA) to the list of known hosts.
root@192.168.1.10's password: 
hosts                                                100%  234     0.2KB/s   00:00  
[root@client /]# cat /etc/hosts
..................              // 省略部分
192.168.1.10    node1
192.168.1.20    node2
192.168.1.30    node3
192.168.1.40    node4

四、挂载 Gluster 文件系统:

[root@client /]# mount -t glusterfs node1:dis-volume /test/dis
[root@client /]# mount -t glusterfs node1:stripe-volume /test/stripe
[root@client /]# mount -t glusterfs node1:rep-volume /test/rep/
[root@client /]# mount -t glusterfs node1:dis-stripe /test/dis_and_stripe/
[root@client /]# mount -t glusterfs node1:dis-rep /test/dis_and_rep/
[root@client /]# df -h              # 查看挂载信息,若是挂载不成功,请检查hosts解析文件
文件系统             容量  已用  可用 已用% 挂载点
.................          // 省略部分
node1:dis-volume      12G   65M   12G    1% /test/dis
node1:stripe-volume   10G   65M   10G    1% /test/stripe
node1:rep-volume     5.0G   33M  5.0G    1% /test/rep
node1:dis-stripe      12G  130M   12G    2% /test/dis_and_stripe
node1:dis-rep        8.0G   65M  8.0G    1% /test/dis_and_rep

五、修改fstab文件,设置自动挂载:

[root@client /]# vim /etc/fstab 
..................              // 省略部分
node1:stripe-volume     /test/stripe    glusterfs       defaults,_netdev 0 0
node1:rep-volume        /test/rep       glusterfs       defaults,_netdev 0 0
node1:dis-stripe        /test/dis_and_stripe    glusterfs       defaults,_netdev 0 0
node1:dis-rep           /test/dis_and_rep       glusterfs       defaults,_netdev 0 0
node1:dis-volume        /test/dis       glusterfs       defaults,_netdev 0 0

GlusterFS维护命令:

[root@node1 /]# gluster volume list             // 查看卷的列表
dis-rep
dis-stripe
dis-volume
rep-volume
stripe-volume
[root@node1 /]# gluster volume info                  // 查看全部卷的信息

Volume Name: dis-rep
Type: Distributed-Replicate
Volume ID: f57c0228-4a5f-4995-8fac-87f9bc034c33
Status: Started
Snapshot Count: 0
Number of Bricks: 2 x 2 = 4
Transport-type: tcp
Bricks:
Brick1: node1:/c4
Brick2: node2:/c4
Brick3: node3:/c4
Brick4: node4:/c4
Options Reconfigured:
transport.address-family: inet
nfs.disable: on
................            // 省略部分
[root@node1 /]# gluster volume status                  // 查看卷的状态
Status of volume: dis-rep
Gluster process                             TCP Port  RDMA Port  Online  Pid
------------------------------------------------------------------------------
Brick node1:/c4                             49155     0          Y       13656
Brick node2:/c4                             49155     0          Y       13443
Brick node3:/c4                             49154     0          Y       13480
Brick node4:/c4                             49154     0          Y       13334
Self-heal Daemon on localhost               N/A       N/A        Y       13676
Self-heal Daemon on node2                   N/A       N/A        Y       13463
Self-heal Daemon on node4                   N/A       N/A        Y       13354
Self-heal Daemon on node3                   N/A       N/A        Y       13500

Task Status of Volume dis-rep
------------------------------------------------------------------------------
[root@node1 ~]# gluster volume stop dis-stripe             #中止一个卷
Stopping volume will make its data inaccessible. Do you want to continue? (y/n) y
volume stop: dis-stripe: success
[root@node1 ~]# gluster volume delete dis-stripe           #删除一个卷
Deleting volume will erase all information abe. Do you want to continue? (y/n) y
volume delete: dis-stripe: success
[root@node1 ~]# gluster volume set dis-rep auth.allow 192.168.1.*,10.1.1.*            
#设置只容许特定网段的客户端访问卷dis-rep
volume set: success
相关文章
相关标签/搜索