实验想法
1.我创建的5块硬盘/dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sdd1 /dev/sdf1
2.用3块硬盘作raid5阵列,其他2块作冗余spare盘
3.打破raid5关系,从新创建raid阵列用4块硬盘,其他1块作冗余spare
4.模拟一块硬盘的损坏,冗余盘容许顶替并做数据恢复机制
5.监控raid5的运行情况并转发给root
实验环境
1.操做系统RedHat Linux Enterprise 5.5
2.VMWare WorkStation 7.0
3.mdadm管理工具(linux自带)
实验步骤
1.查看硬盘情况
2.硬盘分区并转化成Linux raid auto
3.建立raid5的设备文件
4.建立raid5
5.看看简易的状态和信息
6.看看复杂的状态和信息
7.建立配置文件并查看了一下,若是没有配置文件在你停掉raid5后将没法再次启动
8.我如今把配置文件删除或重命名,只要/dev/md5找不到配置文件就能够了,咱们看看能不能在启动
9.如今我把配置文件有正确的名字和路径,再次启动raid5
10.如今咱们格式化raid5设备
11.挂载raid5设备
12.查看raid的挂载状况
13.我如今想在添加一块冗余盘
这是我原来的raid信息看到只有sde1是冗余盘
我添加新盘/dev/sdf1到/dev/md5的raid信息,sdf1也变成冗余了
14.如今我有5块硬盘了分别是/dev/sdb1---/dev/sdc1----/dev/sdd1---/dev/sde1---/dev/sdf1
我想用4块硬盘作raid5而后1块硬盘作冗余,由于我先前作过一次raid5,因此我再次建立时候会提示之前的硬盘已经有文件系统并属于其余raid了,我强制重建了,最后我看了一下raid5的状态没有问题
15.我在新的已挂载的raid5设备上写一些空数据,
16.我打算建立个后台任务监控raid5的情况
17.而后我让raid5设备中的/dev/sde1损坏
那么此时冗余盘应该马上接替损坏的磁盘并开始创建数据恢复机制,/dev/sdf1代替了/dev/sde1了
18.咱们来看看监控信息有没有发给管理员邮箱
至此咱们的raid演示结束了,请虾哥虾姐有必要的补充就留言给我吧,无论是已实现的实验步骤仍是未实现的需求均可以,我会不遗余力补充和完善
我如今是用4块硬盘作raid5,忽然想改为3块硬盘作了,看资料说
mdadm -A --run /dev/sdb1 /dev/sdc1 /dev/sdd1 不知道是否能够,我作实验了竟然最后1块盘冗余盘/dev/sdf1代替了第1块硬盘/dev/sdb1,实在搞不懂了,请高手赐教