在建立volume的时候提示以下报错node
[root@gluster-node1 ~]# gluster volume create testvol 192.168.11.139:/data/brick1 192.168.11.140:/data/brick2 forcevolume create: testvol: failed: /data/brick1 or a prefix of it is already part of a volumebash
找到了国外的一篇博客,据这篇博客讲。从glusterfs3.3开始 ,有一个新的变化就是会检测这个目录是否已经加入了volume。这就致使了不少gluster支持的问题。ide
假如你移除了一个volume的brick而且继续使用这个volume,而后从新添加以前的这个brick,这时你的文件状态就会改变。就会形成一系列的问题。它们中的大多数会引发数据丢失。spa
假如你从新使用一个brick的话,请确保你知道本身在作什么
翻译
解决办法就是:rest
setfattr -x trusted.glusterfs.volume-id $brick_path setfattr -x trusted.gfid $brick_path rm -rf $brick_path/.glusterfs
[root@gluster-node1 data]# setfattr -x trusted.glusterfs.volume-id /data/ctdb/ [root@gluster-node1 data]# setfattr -x trusted.gfid /data/ctdb/ [root@gluster-node1 data]# rm -rf /data/ctdb/. ./ ../ .glusterfs/ [root@gluster-node1 data]# rm -rf /data/ctdb/.glusterfs [root@gluster-node1 data]# service glusterd restart Starting glusterd: [肯定]
不要担忧提示说 属性不存在,只要它不存在,那它就处于健康的状态
blog
最后,重启一下glusterfs来确保它并无“记起来”旧的bricks博客
有些可能翻译的不到位,能够查看原文it
https://joejulian.name/blog/glusterfs-path-or-a-prefix-of-it-is-already-part-of-a-volume/class