RAID5+LVM的机制

RAID5和LVM的组合

导读:首先祝所有的程序猿/媛1024快乐!本文主要讲解了在RAID5的基础上建立LVM的磁盘冗余管理机制(主要是建立与测试)。

零、首先新机器我们需要相应的命令

yum install vim -y
yum install lvm -y
yum install mdadm -y

一、添加硬盘

在这里插入图片描述
在这里插入图片描述
镜像没挂载,那肯定用不了yum啦
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

二、分区

[[email protected] dev]# fdisk /dev/sdb
在这里插入图片描述
[[email protected] dev]# fdisk /dev/sdc
在这里插入图片描述
[[email protected] dev]# fdisk /dev/sdd
在这里插入图片描述
[[email protected] dev]# fdisk /dev/sde
在这里插入图片描述

三、创建raid5:创建raid5,编辑配置文件

[[email protected] ~]# mdadm --create /dev/md0 --level=5 --raid-devices=3 --spare-devices=1 /dev/sd[b-e]1
//创建raid5磁盘冗余阵列
在这里插入图片描述
[[email protected] ~]# mdadm --detail /dev/md0 //查看是否创建成功
在这里插入图片描述
很明显创建成功了
在这里插入图片描述
[[email protected] ~]# mdadm --detail --scan > /etc/mdadm.conf //创建raid5配置文件
在这里插入图片描述
在这里插入图片描述

四、创建lvm:物理卷,卷组,逻辑卷

[[email protected] ~]# pvcreate /dev/md0 //创建物理卷/dev/md0
在这里插入图片描述
[[email protected] ~]# vgcreate myraidvg /dev/md0 //创建卷组myraidvg
在这里插入图片描述
[[email protected] ~]# lvcreate -n myraidlv -L 6G myraidvg
//创建名为myraidlv大小为6G的逻辑卷,从卷组myraidvg中分配容量
在这里插入图片描述
在这里插入图片描述

五、格式化,挂载,自动挂载

在这里插入图片描述
[[email protected] /]# mkfs.ext4 /dev/myraidvg/myraidlv //格式化文件系统
在这里插入图片描述
[[email protected] /]# mount /dev/myraidvg/myraidlv /raidlvm/ //挂载
在这里插入图片描述
//开机自动挂载
在这里插入图片描述

六、检查,测试

重启后进入
在这里插入图片描述
[[email protected] ~]# mdadm --detail /dev/md0
在这里插入图片描述
在这里插入图片描述
一切正常,开始测试:
在这里插入图片描述
在这里插入图片描述

1.首先测试raid5能否进行io操作

[[email protected] raidlvm]# dd if=/dev/zero of=/raidlvm/test bs=1M count=20
在这里插入图片描述

2.模拟维护raid5

(1)查看到当前阵列的状态(完好时) //查看到当前阵列的状态

在这里插入图片描述

(2)模拟故障磁盘

在实际中,当软RAID检测到某个磁盘有故障时,会自动标记该磁盘为故障磁盘,并停止对故障磁盘的读写操作,所以这里需要将/dev/sdb1标记为出现故障的磁盘,命令如下:
[[email protected] ~]# mdadm /dev/md0 --fail /dev/sdb1 //模拟故障磁盘
在这里插入图片描述
查看
在这里插入图片描述

(3)分析

以上信息表明阵列正在重建,当一个设备出现故障或被标记故障时,相应设备的方括号后将被标以(F),如“sdb10”,其中“[3/2]”的第一位数表示阵列所包含的设备数,第二位数表示活动的设备数,因为目前有一个故障设备,所以第二位数为2;这时的阵列以降级模式运行,虽然该阵列仍然可用,但是不具有数据冗余;而“[_UU]”表示当前阵列可以正常使用的设备是/dev/sdc1和/dev/sdd1,如果是设备“/dev/sdc1”出现故障时,则将变成[U_U]。

(4)重建完数据后

再次查看阵列状态时,就会发现当前的RAID设备又恢复了正常,如下:
[[email protected] ~]# cat /proc/mdstat
在这里插入图片描述

(5)移除故障磁盘

既然“/dev/sdb1”出现了故障,当然要移除该设备,移除故障磁盘的操作如下:
[[email protected] ~]# mdadm /dev/md0 --remove /dev/sdb1
在这里插入图片描述
在这里插入图片描述
查看raidlvm阵列数据是否丢失:
在这里插入图片描述
测试raidlvm阵列是否仍然可用:
在这里插入图片描述

(6)添加新硬盘

(先添加一块硬盘并分区,/dev/sdf1)
在这里插入图片描述
分区
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
由于例子中的RAID 5设置了一个备用设备,所以不需要做任何操作RAID 5也能正常运行,但是如果这时某块磁盘再出现故障的话,会导致RAID 5没有数据冗余功能,这对于存放重要的数据的设备来说显得太不安全了。那么这时增加到RAID 5中的“/dev/sdf1”则作为备用设备出现在阵列中,如下:

[[email protected] dev]# mdadm /dev/md0 --add /dev/sdf1
//将/dev/sdf1加入到磁盘冗余阵列及lvm中
在这里插入图片描述
[[email protected] dev]# mdadm --detail /dev/md0 //查看raid5lvm状态
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

(7)修改配置文件

首先,如果不修改配置文件,那么重启或再次进入时,就会出现下图的情况
在这里插入图片描述
即:/dev/sdf1没有自动挂载到阵列中
所以我们需要修改raid5的配置文件 /etc/mdadm.conf
在这里插入图片描述
wq保存后,退出,重启,发现一切ok!
在这里插入图片描述

七、总结:

1.RAID和LVM的组合与单独创建raid5和lvm的步骤是有区别的 2.当磁盘损坏,添加新的热备盘后,需要修改raid5的配置文件 3.由于作者水平有限,本次测试中可能存在一些问题,希望大家批评指正,感激不尽!