仍是上篇文章说的,搭建块存储以前,先把官方的文档看一遍,保证获益匪浅。
传送门:Ceph官方文档html注意:
(1) rbd块存储最好不要安装在osd节点,能够安装在mon节点、admin节点或其余节点。若是安装在其余节点请按上一篇文章步骤安装ceph。
(2) 在luminous版本,在建立集群时,不会自动建立默认的’rbd’池。这是跟旧版本比较大的区别。操作系统
建立存储池: ceph osd pool create {pool-name} {pg-num} [{pgp-num}] [replicated] [crush-ruleset-name] [expected-num-objects]
删除存储池: ceph osd pool delete {pool-name} [{pool-name} --yes-i-really-really-mean-it]
重命名存储池: ceph osd pool rename {current-pool-name} {new-pool-name}
code
ceph osd pool create test_pool 128 128 replicated
ceph osd lspools
建立块设备镜像命令是rbd create --size {megabytes} {pool-name}/{image-name},若是pool_name不指定,则默认的pool是rbd。 下面的命令将建立一个10GB大小的块设备:orm
rbd create --size 10240 test_image -p test_pool
删除镜像: rbd rm test_pool/test_image
server
查看块设备的命令是rbd info {pool-name}/{image-name}
htm
hcy@admin_server:~/my-cluster$ rbd info test_pool/test_image rbd image 'test_image': size 1024 MB in 256 objects order 22 (4096 kB objects) block_name_prefix: rbd_data.372674b0dc51 format: 2 features: layering flags: create_timestamp: Sat Sep 23 18:16:28 2017
注意到上面的rbd info显示的RBD镜像的format为2,Format 2的RBD镜像支持RBD分层,是实现Copy-On-Write的前提条件。blog
块设备映射到操做系统的命令是rbd map {image-name}
文档
sudo rbd map test_pool/test_image
取消映射: rbd unmap test_pool/test_image
此时若是打印:get
rbd: sysfs write failed RBD image feature set mismatch. You can disable features unsupported by the kernel with "rbd feature disable". In some cases useful info is found in syslog - try "dmesg | tail" or so. rbd: map failed: (6) No such device or address
表示当前系统不支持feature,禁用当前系统内核不支持的feature:同步
rbd feature disable test_pool/test_image exclusive-lock, object-map, fast-diff, deep-flatten
从新映射:
hcy@admin_server:~/my-cluster$ sudo rbd map test_pool/test_image /dev/rbd0
sudo mkfs.ext4 /dev/rbd/test_pool/test_image
sudo mkdir /mnt/ceph-block-device sudo chmod 777 /mnt/ceph-block-device sudo mount /dev/rbd/test_pool/test_image /mnt/ceph-block-device cd /mnt/ceph-block-device
至此,Ceph的块设备搭建已完成。可是目前我遇到了一个问题,两台Client机器挂载了同一个镜像,两台机器的文件列表不能保持同步,可能要用到rbd mirror相关的知识,这方面还没接触,后续跟进更新。
参考: