新服务器,4块3T大硬盘,软Raid5 组建 加上LVM分区各种一通操作。。。
悲催的是经过4天的软raid rebuild,最终状态给我FAIL了,当看到raid的state【 State : clean, FAILED】,欲哭无泪说的就是me当时的心情了。
更悲催的是一通mdadm remove 此软raid 后,搞到后来其中一块参与我raid组建工作的硬盘光荣被挂了,用 mkfs.ext4 /dev/sde1:
/dev/sde1 is apparently in use by the system; will not make a 文件系统 here!
【解决策略】
重新分区 parted /dev/sde
rm 1 #删除标号为1的分区
quit
重启系统
reboot
----------------------------------------------------
【快速格式化--3T--NTFS】
mkntfs -f /dev/sdb1
再重新分区 parted /dev/sde
...
再格式化,解决。
-----------------------------
【回想经过,追溯根源】
第一次操作Linux的硬盘分区啥米的东东,3T 、软Raid、LVM上来就玩这么大的局,作为局外人简直就是故障制造机啊。
细数操作过程
1、通过4块硬盘盒的USB连接到服务器;
2、fdisk -l 看到4个新伙伴,心潮澎湃;
3、4遍parted :
(parted) mklabel gpt (parted) mkpart primary 0 100% (parted) print (parted) quit
4、创建raid5--革命征程从此开始
mdadm --create /dev/md0 --level=5 --raid-devices=4 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 mdadm -D /dev/md0
5、创建后开始漫漫5天的build过程,写超级块很费时间
6、进入LVM操作环节(创建pv -->创建vg--->创建lv -->格式化-->文件系统挂载使用)
pvcreate /dev/md0 vgcreate data /dev/md0 lvcreate -l 20480 -n lv1 data mkfs.ext4 /dev/data/lv1 mkdir /data mount /dev/data/lv1 /data