cephfs文件系统环境搭建介绍web
1、cephfs简介。框架
cephfs是一个基于ceph集群且兼容POSIX标准的文件系统。建立cephfs文件系统时须要在ceph集群中添加mds服务,该服务负责处理POSIX文件系统中的metadata部分,实际的数据部分交由ceph集群中的OSDs处理。cephfs支持之内核模块方式加载也支持fuse方式加载。不管是内核模式仍是fuse模式,都是经过调用libcephfs库来实现cephfs文件系统的加载,而libcephfs库又调用librados库与ceph集群进行通讯,从而实现cephfs的加载。cephfs总体框架图以下图所示。spa
2、cephfs搭建过程。3d
ceph官方文档上对cephfs的搭建过程描述的及其简单且只介绍了经过ceph-deploy方式搭建mds。对于没有使用ceph-deploy方法进行ceph集群部署的状况来讲,就的按照下述的方法进行手动配置。orm
一、建立mds工做目录。v8
#mkdir -p /var/lib/ceph/mds/mds.0文档
二、修改ceph集群的配置文件/etc/ceph/ceph.conf文件,在该文件中添加mds的相关内容。具体添加内容以下:部署
[mds]get
mds data = /var/lib/ceph/mds/mds.$idit
keyring = /etc/ceph/ceph.mds.$id.keyring
[mds.0]
host = {hostname}
三、建立mds用户访问key和访问权限。
#ceph auth get-or-create mds.0 mds ‘allow’ osd ‘allow *’ mon ‘allow rwx’ > /etc/ceph/ceph.mds.0.keyring
四、使用ceph启动脚本启动mds服务。
#/etc/init.d/ceph start mds.0
五、查看ceph集群中mdsmap信息。
#ceph -s
cluster e4251f73-2fe9-4dfc-947f-962843dc6ad9
health HEALTH_OK
monmap e1: 1 mons at {a=192.168.250.58:6789/0}, election epoch 1, quorum 0 a
mdsmap e22: 1/1/1 up {0=0=up:active}
osdmap e99: 3 osds: 3 up, 3 in
pgmap v87493: 2760 pgs, 21 pools, 24935 MB data, 6292 objects
77977 MB used, 1596 GB / 1672 GB avail
2760 active+clean
看到上述mdsmap一行,就表示当前集群中mds服务已经开启,cephfs功能一经可用。
3、加载/卸载cephfs过程。
在这里我作的比较简单,就是在ceph集群的机器上作的cephfs加载操做。若在其它客户端进行加载的话,须要将ceph集群配置文件ceph.conf以及访问cephfs的用户keyring复制到对应的客户端。对于经过内核方式加载来讲,须要内核模块支持cephfs,对于经过fuse方式加载来讲,须要手动安装ceph-fuse这个包。
一、经过内核模块的方式加载cephfs。
#mkdir -p /mnt/mycephfs
#mount -t ceph 127.0.0.1:6789:/ /mnt/mycephfs
以后经过mount命令就能够看到cephfs已经成功的挂载到/mnt/mycephfs目录下。后面就能够和操做本地文件系统同样操做/mnt/mycephfs目录。
二、经过内核模块的方式卸载cephfs。
#umount /mnt/mycephfs
三、经过fuse方式加载cephfs。
#ceph-fuse -m 127.0.0.1:6789 /mnt/mycephfs
以后经过mount命令就能够看到cephfs已经成功的挂载到/mnt/mycephfs目录下。后面就能够和操做本地文件系统同样操做/mnt/mycephfs目录。
四、经过fuse方式卸载cephfs。
#fusermount -u /mnt/mycephfs