软Raid5,LVM,3T大硬盘纠缠操作的问题

新服务器,4块3T大硬盘,软Raid5 组建 加上LVM分区各种一通操作。。。

悲催的是经过4天的软raid rebuild,最终状态给我FAIL了,当看到raid的state【 State : clean, FAILED】,欲哭无泪说的就是me当时的心情了。

更悲催的是一通mdadm remove 此软raid  后,搞到后来其中一块参与我raid组建工作的硬盘光荣被挂了,用 mkfs.ext4 /dev/sde1:

/dev/sde1 is apparently in use by the system; will not make a 文件系统 here!

【解决策略】

重新分区 parted /dev/sde

rm 1  #删除标号为1的分区

print

quit

重启系统

reboot

 ----------------------------------------------------

【快速格式化--3T--NTFS】

mkntfs -f /dev/sdb1

 再重新分区 parted /dev/sde

...

再格式化,解决。

-----------------------------

【回想经过,追溯根源】

第一次操作Linux的硬盘分区啥米的东东,3T 、软Raid、LVM上来就玩这么大的局,作为局外人简直就是故障制造机啊。

细数操作过程

1、通过4块硬盘盒的USB连接到服务器;

2、fdisk -l 看到4个新伙伴,心潮澎湃;

3、4遍parted :

(parted) mklabel gpt
(parted) mkpart primary 0 100%
(parted) print
(parted) quit

4、创建raid5--革命征程从此开始

mdadm --create /dev/md0 --level=5 --raid-devices=4 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1

mdadm -D /dev/md0

5、创建后开始漫漫5天的build过程,写超级块很费时间

6、进入LVM操作环节(创建pv -->创建vg--->创建lv -->格式化-->文件系统挂载使用)

 

  pvcreate /dev/md0

  vgcreate data /dev/md0

  lvcreate -l 20480 -n lv1 data

  mkfs.ext4 /dev/data/lv1

  mkdir /data 

  mount /dev/data/lv1 /data


原文地址:https://www.cnblogs.com/mousean/p/6031587.html