ZFS存储池zpool丢失恢复及Gluster卷自愈

现象

存储节点pods01的机器出现异常没法链接,重启。html

恢复

  • 重启后zpool没法访问,运行 df -h ,发现zpool不见了。
  • 使用zdb查询发现全部的配置信息都在。查阅网络,使用zpool import能够恢复,但试了屡次,不成功。
  • 而后运行 sudo mount -a,再运行 df -h ,发现 zpool 回来了。
  • 再次重启机器后,运行正常,zpool能够访问。

zpool Import命令格式和参数:

import [-d dir] [-D]
import [-d dir | -c cachefile] [-F [-n]] <pool | id>
import [-o mntopts] [-o property=value] ... 
    [-d dir | -c cachefile] [-D] [-f] [-m] [-N] [-R root] [-F [-n]] -a
import [-o mntopts] [-o property=value] ... 
    [-d dir | -c cachefile] [-D] [-f] [-m] [-N] [-R root] [-F [-n]]
    <pool | id> [newpool]

单独运行import获得zpool状态:

supermap@pods01:/etc/netplan$ sudo zpool import
[sudo] supermap 的密码: 
   pool: zpool
     id: 5005088901231101042
  state: ONLINE
 action: The pool can be imported using its name or numeric identifier.
 config:

	zpool       ONLINE
	  sda       ONLINE
	  sdb       ONLINE
	  sdc       ONLINE
	  sdd       ONLINE
	  sde       ONLINE
	  sdf       ONLINE
	  sdg       ONLINE
	  sdh       ONLINE

而后,运行 zpool import zpool来恢复zfs存储池(我这里的名称是zpool)。网络

结果

过完元旦后,再次开机,又没法开机了。oracle

继续测试。分布式

后续

从新启动,能够运行,登陆进去。ide

运行 df -h,没有/zpool。性能

运行 zpool import zpool 一天一晚上,进程没有结束(硬盘灯没有活动),只好ctrl+c强行终止。测试

从新建立zpool(注意:数据会丢失!),运行:ui

sudo zpool create zpool /dev/sda /dev/sdb /dev/sdc /dev/sdd /dev/sde /dev/sdf /dev/sdg /dev/sdh -f

运行 df -h,/zpool出现。spa

恢复Gluster卷:.net

# 查看卷状态
gluster volume status

#移除节点的brick
gluster volume remove-brick zpool 10.1.1.193:/zpool/gvz00

#从新添加brick
gluster volume add-brick zpool 10.1.1.193:/zpool/gvz00

自動掛載

# 建立挂载点目录
/home/supermap/gvz00

# 编辑/etc/fstab文件,加入
10.1.1.193:/gvz00 /home/supermap/gvz00 glusterfs _netdev,rw,acl 0 0

查看信息:

ls -l ~/gvz00

若是访问正常,恢复存储系统完毕,下一步将进行数据的恢复(若是使用的是卷类型复制数据集,将会自动启动healing自愈过程)。

参考

相关文章
相关标签/搜索