• CentOS6.7配置软raid5(模拟故障增加硬盘)


    摘要: 实验环境vmware12  系统CentOS6.7 64位 配置RAID5 RAID5至少需要三块硬盘,读写数据的时候会将数据分布的读写到所有硬盘上 虚拟机设置中,除系统盘外,增加4块硬盘来做实验,其中3块硬盘为活动盘,另一块做热备盘 进入系统fdisk -l命令查看,/dev/sdb、/dev

    实验环境vmware12  系统CentOS6.7 64位

    配置RAID5

    RAID5至少需要三块硬盘,读写数据的时候会将数据分布的读写到所有硬盘上

    虚拟机设置中,除系统盘外,增加4块硬盘来做实验,其中3块硬盘为活动盘,另一块做热备盘

    进入系统fdisk -l命令查看,/dev/sdb、/dev/sdc、/dev/sdd、/dev/sde

    当前mdadm版本

    如果没有mdadm命令,需要手动安装

    安装mdadm软件

    yum -y install mdadm

    直接对4块硬盘做软raid,其中1块硬盘为热备盘

    mdadm -C /dev/md5 -a yes -l 5 -n 3 -x 1 /dev/sd[b,c,d,e]

    说明:

    -C:创建模式
    -a {yes|no}:自动创建对应的设备,yes表示会自动在/dev下创建RAID设备
    -l #:指明要创建的RAID的级别(-l 0 表示创建RAID0)
    -n #:使用#个块设备来创建此RAID(-n 3 表示用3块硬盘来创建这个RAID)
    -x #:当前阵列中热备盘只有#块(-x 1 表示热备盘只有1块)

    此时再通过fdisk -l命令即可看到/dev/md5

    查看raid5状态

    cat /proc/mdstat

    mdadm -D /dev/md5

    实验环境的硬盘比较小,所以几乎是瞬间创建完成,下图可以看出spare /dev/sde为热备盘

    添加raid5到raid配置文件中/etc/mdadm.conf(默认此文件不存在)

    echo DEVICE /dev/sd[b,c,d,e] >> /etc/mdadm.conf

    mdadm -Ds >> /etc/mdadm.conf

    此时就可以格式化磁盘了

    mkfs.ext4 /dev/md5

    创建挂载点并挂载磁盘

    mkdir /raid5

    mount /dev/md5 /raid5/

    raid5的可用大小为38G,即(3-1)x20G

    添加至开机自动挂载

    echo "/dev/md5 /raid5 ext4 defaults 0 0" >> /etc/fstab

    对/raid5进行写入测试,随便创建个文件

    touch /raid5/blog.whsir.com

    最后需要reboot命令重启,测试开机是否自动挂载,raid5是否正常

    模拟磁盘故障

    我在这里模拟/dev/sdc磁盘故障

    mdadm /dev/md5 -f /dev/sdc

    查看重建状态,因为之前创建raid5的时候设置了一个热备盘,所以当有故障的磁盘时,热备盘会自动顶替故障磁盘工作,阵列也会重建,通过cat /proc/mdstat可以看到当前阵列状态

    当某个磁盘出现故障时,相应的设备方括号标记(F),如上图,sdc1

    其中[3/2]的第一位数表示阵列所包含的设备数,第二位数表示活动的设备数,因为当前有一个设备故障,所以第二位数为2,此时阵列以降级模式运行,虽然阵列仍然可用,但是不具有数据冗余

    [U_U]表示正常使用的设备是/dev/sdb,/dev/sdd,假如这里是/dev/sdd出现故障,则变成[UU_]

    重建完成后查看阵列状态,此时raid恢复正常

    接下来移除故障的磁盘

    mdadm /dev/md5 -r /dev/sdc

    因为刚才模拟损坏了一块盘,所以当前阵列没有热备盘了,所以我们需要在添加一块新的热备盘,这里为了方便,直接将刚才模拟损坏的硬盘再次添加到raid5中

    mdadm /dev/md5 -a /dev/sdc

    此时/dev/sdc变成了热备盘,故障测试结束。

    软RAID增加硬盘

    软raid使用了一段时间后,发现磁盘空间不足了,此时就需要向当前软RAID中增加新的磁盘,提高RAID的空间

    关闭当前系统,增加磁盘,因为我是vm实验环境,关闭虚拟机后直接添加硬盘即可

    通过lsblk命令,可以看到刚才添加的磁盘是sdf

    向当前raid5中增加一块硬盘

    mdadm /dev/md5 -a /dev/sdf

    查看RAID状态

    刚才向RAID中增加的磁盘,会被当作热备盘,还需要把热备盘加入到RAID的活动盘中

    mdadm -G /dev/md5 -n4

    上图可以看到,刚新加的/dev/sdf已经变成了活动盘,但是Array Size : 41910272 (39.97 GiB 42.92 GB)并没有变大,那是因为构建没有完成。
    等cat /proc/mdstat构建完成,RAID的容量就会变成(4-1)x20G,下图是已经构建完成后的RAID状态,可以看到Array Size : 62865408 (59.95 GiB 64.37 GB)增加了

    但是通过df -Th查看文件系统容量发现大小并没有改变,所以还需要对文件系统扩容,根据磁盘大小,扩容时间也不相同,所以扩容时耐心等待resize2fs /dev/md5

    上图可以看到扩容成功,数据正常,新增磁盘成功

    修改RAID的配置文件vi /etc/mdadm.conf如下图所示

    最后reboot重启系统,确认RAID是否正常

    用云栖社区APP,舒服~

  • 相关阅读:
    jzoj 3176. 【GDOI2013模拟5】蜘蛛侠
    各种各样的根号算法 总结&刷题
    jzoj 3187. 【GDOI2013模拟8】的士
    jzoj 3188. 【GDOI2013模拟8】找数
    jzoj 4673. 【NOIP2016提高A组模拟7.20】LCS again
    jzoj 4672. 【NOIP2016提高A组模拟7.20】Graph Coloring
    markdown 模板2
    树莓派kali开启arp【arpspoof,urlsnarf】
    Java 图片处理——如何生成高清晰度而占有磁盘小的缩略图
    手把手教你生成二维码-google.zxing
  • 原文地址:https://www.cnblogs.com/jzy996492849/p/7150701.html
Copyright © 2020-2023  润新知