[巴法络] buffalo LS-QVL 折腾出的故障,Raid10问题。请帮忙啊! |
本帖最后由 jackie2k 于 2013-5-2 19:31 编辑
现有一Buffalo Ls_QVL四盘位的NAS。 做了Raid10,改了机,可以SSH后台登陆。 在折腾的时候不小心在打开电源的情况下把盘位1和2的硬盘同时抽出了。 故障原因:RAID-10中同一组RAID-1的两块成员盘都拔出 1:现在亮红灯,几短一长的闪。 2:从网络共享看,所有共享目录全都可以看见。 3:但在Windows机器点击共享目录,无法看到内容。 4:在Web登陆后,看到左边有存储,不可用的提示。 5: 在系统---存储, Raid10显示正常。Raid10里四块盘都在。 6: SSH登陆后,可以看到系统有 dev/md2 包括两块硬盘, dev/md3 包括两块硬盘。 7:有/dev/md4, 显示Inactive,应该包括 md2和md3组成, 但只显示md2 8:用mdadm -A --force /dev/md4 dev/md2 dev/md3 后 显示md3 没有Superblock然后abroded,md3应该是当初抽出的两块盘组成。 请诸位大侠看看,该如何处理救回里边的重要数据。谢谢! root@HomeData1:/# cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid6] [raid5] [raid4] md4 : inactive md2[0](S) 1938311032 blocks super 1.2 md3 : active raid1 sdc6[0] sdd6[1] 1938312056 blocks super 1.2 [2/2] [UU] md2 : active raid1 sda6[2] sdb6[1] 1938312056 blocks super 1.2 [2/2] [UU] md1 : active raid1 sda2[4] sdd2[3] sdc2[2] sdb2[5] 4999156 blocks super 1.2 [4/4] [UUUU] md10 : active raid1 sda5[4] sdd5[3] sdc5[2] sdb5[5] 1000436 blocks super 1.2 [4/4] [UUUU] md0 : active raid1 sda1[0] sdd1[3] sdc1[2] sdb1[1] 1000384 blocks [4/4] [UUUU] unused devices: <none> root@HomeData1:/# cd mnt root@HomeData1:/mnt# ls array1/ authtest/ info@ msdfs_root/ ram/ root@HomeData1:/mnt# cd array1/ root@HomeData1:/mnt/array1# ls root@HomeData1:/mnt/array1# cd .. root@HomeData1:/mnt# mdadm -D /dev/md4 mdadm: md device /dev/md4 does not appear to be active. root@HomeData1:/mnt# mdadm --detail /dev/md2 /dev/md2: Version : 1.2 Creation Time : Sat Jan 1 00:55:56 2000 Raid Level : raid1 Array Size : 1938312056 (1848.52 GiB 1984.83 GB) Used Dev Size : 1938312056 (1848.52 GiB 1984.83 GB) Raid Devices : 2 Total Devices : 2 Persistence : Superblock is persistent Update Time : Thu May 2 18:08:34 2013 State : clean Active Devices : 2 Working Devices : 2 Failed Devices : 0 Spare Devices : 0 Name : LS-QVL1DF:2 UUID : 1fd9a12e:e4eb5774:17976a51:07d23b74 Events : 48 Number Major Minor RaidDevice State 2 8 6 0 active sync /dev/sda6 1 8 22 1 active sync /dev/sdb6 root@HomeData1:/mnt# mdadm --detail /dev/md3 /dev/md3: Version : 1.2 Creation Time : Sat Jan 1 00:55:57 2000 Raid Level : raid1 Array Size : 1938312056 (1848.52 GiB 1984.83 GB) Used Dev Size : 1938312056 (1848.52 GiB 1984.83 GB) Raid Devices : 2 Total Devices : 2 Persistence : Superblock is persistent Update Time : Thu May 2 18:08:34 2013 State : clean Active Devices : 2 Working Devices : 2 Failed Devices : 0 Spare Devices : 0 Name : LS-QVL1DF:3 UUID : e8cfad92:8989d0ed:4163b57b:9e792af2 Events : 23 Number Major Minor RaidDevice State 0 8 38 0 active sync /dev/sdc6 1 8 54 1 active sync /dev/sdd6 root@HomeData1:/mnt# root@HomeData1:/mnt# mdadm --stop /dev/md4 mdadm: stopped /dev/md4 root@HomeData1:/mnt# mdadm -E /dev/md2 /dev/md2: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : cdf08f8b:d09a4b72:687fa346:6ad453b2 Name : LS-QVL1DF:4 Creation Time : Sat Jan 1 00:55:57 2000 Raid Level : raid0 Raid Devices : 2 Avail Dev Size : 3876622064 (1848.52 GiB 1984.83 GB) Used Dev Size : 0 Data Offset : 2048 sectors Super Offset : 8 sectors State : clean Device UUID : 0f32ce92:3cfc12ab:2b50711c:c82a0643 Update Time : Sat Jan 1 00:55:57 2000 Checksum : 2ad50e4c - correct Events : 0 Chunk Size : 512K Device Role : Active device 0 Array State : AA ('A' == active, '.' == missing) root@HomeData1:/mnt# root@HomeData1:/mnt# mdadm -Ds /dev/md3 /dev/md3: Version : 1.2 Creation Time : Sat Jan 1 00:55:57 2000 Raid Level : raid1 Array Size : 1938312056 (1848.52 GiB 1984.83 GB) Used Dev Size : 1938312056 (1848.52 GiB 1984.83 GB) Raid Devices : 2 Total Devices : 2 Persistence : Superblock is persistent Update Time : Thu May 2 18:19:54 2013 State : clean Active Devices : 2 Working Devices : 2 Failed Devices : 0 Spare Devices : 0 Name : LS-QVL1DF:3 UUID : e8cfad92:8989d0ed:4163b57b:9e792af2 Events : 23 Number Major Minor RaidDevice State 0 8 38 0 active sync /dev/sdc6 1 8 54 1 active sync /dev/sdd6 |
没戏,巴法络机器不可以抽取硬碟,不支持热插拔,so your Raid阵列已经不在了 现在只能做数据恢复了
|