OMV莫名被ban,软RAID崩溃,RAID5抢救数据记录

一直在用OpenMediaVault做NAS系统。这几天更新升级有些问题,正好新加了块盘,寻思干脆重装一遍。没想到灾难来了,根本装不了。

一查之下,原来OMV的官网被墙了。

改用sourceforge的源后,还是会各种报错。

总之搞不懂盖墙的人的想法,这种也会被墙也真是哔了狗了。

祸不单行,现有的RAID5阵列也出了问题。添加进去一个盘,reshape正常,但重启后直接就变成spare了。再次添加,这下好了,整个阵列直接fail。

虽然都是些高清片片,但好歹也是花了流量下的不是?能救回来当然是极好的。找回数据的过程一波三折,对RAID也算是粗略入门了。

OMV的RAID其实就是SoftRAID,Linux下标准的软件RAID。即便没有WebGUI,用命令行也是可以的。

先看看阵列是个什么状况。

# cat /proc/mdstat

出来一堆东西。总之一个盘spare了,一个盘fail了。

先把这个阵列删了

# mdadm -Ds

再重组它

# mdadm --assemble /dev/md0 /dev/sd[abcd]

果不其然,重组不了,/dev/sdd盘木有superblock(超级块,用来记录RAID信息)。

# mdadm --examine /dev/sd[abcd]

上面这个命令用来查看各盘的superblock,一看很好,/dev/sda /dev/sdb /dev/sdc三个盘的superblock没问题。

好了用这三个组组看

#mdadm --assemble /dev/md0 /dev/sd[abc]

又报错。加个–force试试。

#mdadm --assemble /dev/md0 /dev/sd[abc] --force

据说用–force可能带来未知的危险,不管了。一试之下,果然有效,成功组装起来了。现在的mdstat显示,处于degraded状态,降级成RAID 0了。不要紧,数据还在。

赶紧拷贝数据。拷到一半断了,一看又fail。又重组,又拷,拷到一半又fail。再次查看mdstat,发现sda这盘fail,心想完蛋,多半是盘真有坏道了。

两次fail时拷的数据是同一个文件,于是跳过这个文件,很好,别的文件都救了回来。

sda盘取出来,是一块WD的红盘,拿到大奶机上一测SMART,果然FAIL,连Quick Test都过不去。看来红盘也不是很靠谱嘛,这才用了1000个小时不到,说好的100万小时无故障呢?

到京东报修,京东说没有新的换了,直接给我换个新的类似的盘。我说那就希捷的NAS盘吧。第二天就收到了全新的希捷NAS盘。我这盘虽然通电时间不长,但也是用了一年以上了。为京东点32个赞!

总结一下mdadm的几个基本操作:

新建:

#mdadm --create /dev/md0 --level=5(Raid 5) --raid-devices=x(盘数) /dev/盘列表

用现成的raid盘组装

#mdadm --assemble /dev/md0 /dev/盘列表 [--force]

查看状态

#cat /proc/mdstat

查看盘片的superblock

#mdadm --examine /dev/盘列表

清空superblock

#mdadm --misc --zero-superblock /dev/盘列表

Leave a Reply

Your email address will not be published. Required fields are marked *