glusterfs volume create: testvol: failed: /data/brick1 or a prefix of it is already part of a volume

在建立volume的时候提示以下报错node

[root@gluster-node1 ~]# gluster volume create testvol 192.168.11.139:/data/brick1 192.168.11.140:/data/brick2 forcevolume create: testvol: failed: /data/brick1 or a prefix of it is already part of a volumebash


找到了国外的一篇博客,据这篇博客讲。从glusterfs3.3开始 ,有一个新的变化就是会检测这个目录是否已经加入了volume。这就致使了不少gluster支持的问题。ide


假如你移除了一个volume的brick而且继续使用这个volume,而后从新添加以前的这个brick,这时你的文件状态就会改变。就会形成一系列的问题。它们中的大多数会引发数据丢失。spa


假如你从新使用一个brick的话,请确保你知道本身在作什么
翻译

解决办法就是:rest

setfattr -x trusted.glusterfs.volume-id $brick_path
setfattr -x trusted.gfid $brick_path
rm -rf $brick_path/.glusterfs
[root@gluster-node1 data]# setfattr -x trusted.glusterfs.volume-id /data/ctdb/         
[root@gluster-node1 data]# setfattr -x trusted.gfid /data/ctdb/ 
[root@gluster-node1 data]# rm -rf /data/ctdb/.
./          ../         .glusterfs/ 
[root@gluster-node1 data]# rm -rf /data/ctdb/.glusterfs
[root@gluster-node1 data]# service glusterd restart
Starting glusterd:                                         [肯定]

不要担忧提示说 属性不存在,只要它不存在,那它就处于健康的状态
blog

最后,重启一下glusterfs来确保它并无“记起来”旧的bricks博客


有些可能翻译的不到位,能够查看原文it

https://joejulian.name/blog/glusterfs-path-or-a-prefix-of-it-is-already-part-of-a-volume/class

相关文章
相关标签/搜索