jackie2k 发表于 2013-5-2 10:54:30

buffalo LS-QVL 折腾出的故障,Raid10问题。请帮忙啊!

本帖最后由 jackie2k 于 2013-5-2 19:31 编辑

现有一Buffalo Ls_QVL四盘位的NAS。
做了Raid10,改了机,可以SSH后台登陆。
在折腾的时候不小心在打开电源的情况下把盘位1和2的硬盘同时抽出了。

故障原因:RAID-10中同一组RAID-1的两块成员盘都拔出

1:现在亮红灯,几短一长的闪。
2:从网络共享看,所有共享目录全都可以看见。
3:但在Windows机器点击共享目录,无法看到内容。
4:在Web登陆后,看到左边有存储,不可用的提示。
5: 在系统---存储, Raid10显示正常。Raid10里四块盘都在。
6: SSH登陆后,可以看到系统有 dev/md2 包括两块硬盘,
   dev/md3 包括两块硬盘。
7:有/dev/md4, 显示Inactive,应该包括 md2和md3组成,
   但只显示md2

8:用mdadm -A --force /dev/md4 dev/md2 dev/md3 后
显示md3 没有Superblock然后abroded,md3应该是当初抽出的两块盘组成。

请诸位大侠看看,该如何处理救回里边的重要数据。谢谢!


root@HomeData1:/# cat /proc/mdstat
Personalities :
md4 : inactive md2(S)
      1938311032 blocks super 1.2

md3 : active raid1 sdc6 sdd6
      1938312056 blocks super 1.2

md2 : active raid1 sda6 sdb6
      1938312056 blocks super 1.2

md1 : active raid1 sda2 sdd2 sdc2 sdb2
      4999156 blocks super 1.2

md10 : active raid1 sda5 sdd5 sdc5 sdb5
      1000436 blocks super 1.2

md0 : active raid1 sda1 sdd1 sdc1 sdb1
      1000384 blocks

unused devices: <none>
root@HomeData1:/# cd mnt
root@HomeData1:/mnt# ls
array1/   authtest/   info@       msdfs_root/ ram/
root@HomeData1:/mnt# cd array1/
root@HomeData1:/mnt/array1# ls
root@HomeData1:/mnt/array1# cd ..

root@HomeData1:/mnt# mdadm -D /dev/md4
mdadm: md device /dev/md4 does not appear to be active.
root@HomeData1:/mnt# mdadm --detail /dev/md2
/dev/md2:
      Version : 1.2
Creation Time : Sat Jan1 00:55:56 2000
   Raid Level : raid1
   Array Size : 1938312056 (1848.52 GiB 1984.83 GB)
Used Dev Size : 1938312056 (1848.52 GiB 1984.83 GB)
   Raid Devices : 2
Total Devices : 2
    Persistence : Superblock is persistent

    Update Time : Thu May2 18:08:34 2013
          State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0

         Name : LS-QVL1DF:2
         UUID : 1fd9a12e:e4eb5774:17976a51:07d23b74
         Events : 48

    Number   Major   Minor   RaidDevice State
       2       8      6      0      active sync   /dev/sda6
       1       8       22      1      active sync   /dev/sdb6
root@HomeData1:/mnt# mdadm --detail /dev/md3
/dev/md3:
      Version : 1.2
Creation Time : Sat Jan1 00:55:57 2000
   Raid Level : raid1
   Array Size : 1938312056 (1848.52 GiB 1984.83 GB)
Used Dev Size : 1938312056 (1848.52 GiB 1984.83 GB)
   Raid Devices : 2
Total Devices : 2
    Persistence : Superblock is persistent

    Update Time : Thu May2 18:08:34 2013
          State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0

         Name : LS-QVL1DF:3
         UUID : e8cfad92:8989d0ed:4163b57b:9e792af2
         Events : 23

    Number   Major   Minor   RaidDevice State
       0       8       38      0      active sync   /dev/sdc6
       1       8       54      1      active sync   /dev/sdd6
root@HomeData1:/mnt#




root@HomeData1:/mnt# mdadm --stop /dev/md4
mdadm: stopped /dev/md4


root@HomeData1:/mnt# mdadm -E /dev/md2
/dev/md2:
          Magic : a92b4efc
      Version : 1.2
    Feature Map : 0x0
   Array UUID : cdf08f8b:d09a4b72:687fa346:6ad453b2
         Name : LS-QVL1DF:4
Creation Time : Sat Jan1 00:55:57 2000
   Raid Level : raid0
   Raid Devices : 2

Avail Dev Size : 3876622064 (1848.52 GiB 1984.83 GB)
Used Dev Size : 0
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 0f32ce92:3cfc12ab:2b50711c:c82a0643

    Update Time : Sat Jan1 00:55:57 2000
       Checksum : 2ad50e4c - correct
         Events : 0

   Chunk Size : 512K

   Device Role : Active device 0
   Array State : AA ('A' == active, '.' == missing)
root@HomeData1:/mnt#


root@HomeData1:/mnt# mdadm -Ds /dev/md3
/dev/md3:
      Version : 1.2
Creation Time : Sat Jan1 00:55:57 2000
   Raid Level : raid1
   Array Size : 1938312056 (1848.52 GiB 1984.83 GB)
Used Dev Size : 1938312056 (1848.52 GiB 1984.83 GB)
   Raid Devices : 2
Total Devices : 2
    Persistence : Superblock is persistent

    Update Time : Thu May2 18:19:54 2013
          State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0

         Name : LS-QVL1DF:3
         UUID : e8cfad92:8989d0ed:4163b57b:9e792af2
         Events : 23

    Number   Major   Minor   RaidDevice State
       0       8       38      0      active sync   /dev/sdc6
       1       8       54      1      active sync   /dev/sdd6

zal1412 发表于 2013-5-2 11:51:03

相当悲剧啊。。不懂帮顶~

bgtzhang 发表于 2013-5-2 16:04:06

这要看具体是几短 ,如果是三短的话,数据应该还有救。

jackie2k 发表于 2013-5-2 19:25:09

添加操作记录

jackie2k 发表于 2013-5-3 09:46:12

自己顶一下。

杭州领道小万 发表于 2013-5-20 11:21:10

没戏,巴法络机器不可以抽取硬碟,不支持热插拔,so your Raid阵列已经不在了 现在只能做数据恢复了

happysky 发表于 2013-10-28 09:46:25

请问LZ是用什么方法登录ssh的,我试了论坛里面的方法不好用,能告诉你的方法吗
页: [1]
查看完整版本: buffalo LS-QVL 折腾出的故障,Raid10问题。请帮忙啊!