Pomoc Przywrócenie RAID5 (inactive)

Status
Brak możliwości dodawania odpowiedzi.

salata

Passing Basics
Beginner
28 Czerwiec 2012
11
2
3
Luebeck
QNAP
TS-x59 Pro+
Ethernet
1 GbE
Witam wszystkich,
mam problem z RAID5 w moim Qnapie. Perspektywa utraty danych jest dla mnie troche przerazajaca, ze wzgledu na czas jakim musialbym poswieci na ich odtwarzanie o odbudowe. Moj server to QNAP TS-559Pro+ dziala na firmware 4.0.5. 4 dyski dzialaja jako RAID5 jeden jako single. Jakis czas temu postanowilem wymienic 2 dyski (1TB) na wieksze(3 TB), co zrobilem wg instrukcji. SERWER dziala na tej konfiguracji przez pare tygodni. Jako, ze musze czekac jeszcze pare nastepnych na wymiane 2 pozostalych i dokonanie powiekszenia woluminu, pech sie zdazyl chyba dzis w nocy, ze nagle RAID5 przestal byc widoczny. Zobaczylem blad w rtorrent, po czym zrestartowalem serwer. Blad jaki dostaje w logach to: [RAID5 Disk Volume: Drive 1 2 3 4] RAID device is inactive. Wszystkie dyski do WD RED.
Dostalem sie przez powloke i uruchomilem pare komend, ale juz nie wiem, co dalej z tym zrobic:

Kod:
[~] # df -h
Filesystem                Size      Used Available Use% Mounted on
/dev/ram0              139.5M    119.7M    19.8M  86% /
tmpfs                    64.0M    448.0k    63.6M  1% /tmp
/dev/sda4              364.2M    241.7M    122.5M  66% /mnt/ext
/dev/md9                509.5M    102.3M    407.1M  20% /mnt/HDA_ROOT
/dev/sde3                2.7T      2.5T    167.8G  94% /share/HDE_DATA
tmpfs                    32.0M        0    32.0M  0% /.eaccelerator.tmp

Kod:
[~] # cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md5 : active raid1 sde2[2](S) sdd2[3](S) sdc2[4](S) sdb2[1] sda2[0]
      530048 blocks [2/2] [UU]

md13 : active raid1 sda4[0] sde4[4] sdd4[3] sdc4[2] sdb4[1]
      458880 blocks [5/5] [UUUUU]
      bitmap: 0/57 pages [0KB], 4KB chunk

md9 : active raid1 sda1[0] sde1[4] sdd1[3] sdc1[2] sdb1[1]
      530048 blocks [5/5] [UUUUU]
      bitmap: 0/65 pages [0KB], 4KB chunk

unused devices: <none>

Kod:
[~] # mdadm /dev/md0
/dev/md0: is an md device which is not active

Kod:
[~] # fdisk -l

Disk /dev/sde: 3000.5 GB, 3000592982016 bytes
255 heads, 63 sectors/track, 364801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

  Device Boot      Start        End      Blocks  Id  System
/dev/sde1              1      267350  2147483647+  ee  EFI GPT

Disk /dev/sdd: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

  Device Boot      Start        End      Blocks  Id  System
/dev/sdd1              1          66      530125  83  Linux
/dev/sdd2              67        132      530142  83  Linux
/dev/sdd3            133      121538  975193693  83  Linux
/dev/sdd4          121539      121600      498012  83  Linux

Disk /dev/sdc: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

  Device Boot      Start        End      Blocks  Id  System
/dev/sdc1              1          66      530125  83  Linux
/dev/sdc2              67        132      530142  83  Linux
/dev/sdc3            133      121538  975193693  83  Linux
/dev/sdc4          121539      121600      498012  83  Linux

Disk /dev/sdb: 3000.5 GB, 3000592982016 bytes
255 heads, 63 sectors/track, 364801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

  Device Boot      Start        End      Blocks  Id  System
/dev/sdb1              1      267350  2147483647+  ee  EFI GPT

Disk /dev/sda: 3000.5 GB, 3000592982016 bytes
255 heads, 63 sectors/track, 364801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

  Device Boot      Start        End      Blocks  Id  System
/dev/sda1              1      267350  2147483647+  ee  EFI GPT

Disk /dev/sda4: 469 MB, 469893120 bytes
2 heads, 4 sectors/track, 114720 cylinders
Units = cylinders of 8 * 512 = 4096 bytes

Disk /dev/sda4 doesn't contain a valid partition table

Disk /dev/sdx: 515 MB, 515899392 bytes
8 heads, 32 sectors/track, 3936 cylinders
Units = cylinders of 256 * 512 = 131072 bytes

  Device Boot      Start        End      Blocks  Id  System
/dev/sdx1              1          17        2160  83  Linux
/dev/sdx2              18        1910      242304  83  Linux
/dev/sdx3            1911        3803      242304  83  Linux
/dev/sdx4            3804        3936      17024    5  Extended
/dev/sdx5            3804        3868        8304  83  Linux
/dev/sdx6            3869        3936        8688  83  Linux

Disk /dev/md9: 542 MB, 542769152 bytes
2 heads, 4 sectors/track, 132512 cylinders
Units = cylinders of 8 * 512 = 4096 bytes

Disk /dev/md9 doesn't contain a valid partition table

Disk /dev/md5: 542 MB, 542769152 bytes
2 heads, 4 sectors/track, 132512 cylinders
Units = cylinders of 8 * 512 = 4096 bytes

Disk /dev/md5 doesn't contain a valid partition table

Kod:
mdadm --assemble /dev/md0 /dev/sda /dev/sdb /dev/sdc /dev/sdd
mdadm: cannot open device /dev/sda: Device or resource busy
mdadm: /dev/sda has no superblock - assembly aborted

Kod:
[~] # cat /etc/mtab
/proc /proc proc rw 0 0
none /dev/pts devpts rw,gid=5,mode=620 0 0
sysfs /sys sysfs rw 0 0
tmpfs /tmp tmpfs rw,size=64M 0 0
none /proc/bus/usb usbfs rw 0 0
/dev/sda4 /mnt/ext ext3 rw 0 0
/dev/md9 /mnt/HDA_ROOT ext3 rw,data=ordered 0 0
/dev/sde3 /share/HDE_DATA ext4 rw,usrjquota=aquota.user,jqfmt=vfsv0,user_xattr,data=ordered,nodelalloc,noacl 0 0
tmpfs /.eaccelerator.tmp tmpfs rw,size=32M 0 0

Pomorzcie, bo te wlosy, co mi na glowie zostaly zaczynaj mi siwiec, kiedy mysle, ze czesc danych z tych dyskow mi zginela bezpowrotnie. Najwazniejsze mam na komputerze, ale niektore byly tylko na NASie. Dzieki z gory za wszystkie sugestie i pomoc.

Pozdrawiam
MarcinPrzepraszam za zdublowane watki. Drugi mozna wywalic.

Po reatarcie RAID5 ma status unmounted.

Zrobilem e2fsck
Kod:
# e2fsck /dev/md0
e2fsck 1.41.4 (27-Jan-2009)
The filesystem size (according to the superblock) is 731395200 blocks
The physical size of the device is 731395152 blocks
Either the superblock or the partition table is likely to be corrupt!
answer=1
uruchomienie e2fsck z innym superblockiem (-b) daje ten sam rezultat co powyzej.



natomiast obecnie more /proc/mdstat daje wynik
Kod:
[/] # more /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md0 : active raid5 sdd3[3] sdc3[2] sdb3[1] sda3[0]
      2925580608 blocks super 1.0 level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

md5 : active raid1 sde2[2](S) sdd2[3](S) sdc2[4](S) sdb2[1] sda2[0]
      530048 blocks [2/2] [UU]

md13 : active raid1 sda4[0] sde4[4] sdd4[3] sdc4[2] sdb4[1]
      458880 blocks [5/5] [UUUUU]
      bitmap: 0/57 pages [0KB], 4KB chunk

md9 : active raid1 sda1[0] sde1[4] sdd1[3] sdc1[2] sdb1[1]
      530048 blocks [5/5] [UUUUU]
      bitmap: 0/65 pages [0KB], 4KB chunk

unused devices: <none>
raid jest wiec widoczny tylkonie moge go zamontowac lub uruchomic na nim e2fsckUpdate:

Kod:
[/] # mdadm --detail /dev/md0
/dev/md0:
        Version : 01.00.03
  Creation Time : Thu Apr 10 15:46:47 2014
    Raid Level : raid5
    Array Size : 2925580608 (2790.05 GiB 2995.79 GB)
  Used Dev Size : 975193536 (930.02 GiB 998.60 GB)
  Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Thu Apr 10 22:24:38 2014
          State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
  Spare Devices : 0

        Layout : left-symmetric
    Chunk Size : 64K

          Name : 0
          UUID : 9364c210:012128dc:a335f919:8349fe1e
        Events : 2

    Number  Major  Minor  RaidDevice State
      0      8        3        0      active sync  /dev/sda3
      1      8      19        1      active sync  /dev/sdb3
      2      8      35        2      active sync  /dev/sdc3
      3      8      51        3      active sync  /dev/sdd3

Ogolnie dane chyba wciaz sa, ale nie moge sie do nich dostac. Nie wiem jak skorygowac tablice partycji na /dev/md0 bez ryzyka utarty tych danych. Poki co nie odlaczalem dyskow, aby niczego nie spieprzyc.
 
Status
Brak możliwości dodawania odpowiedzi.

Użytkownicy znaleźli tą stronę używając tych słów:

  1. e2fsck
  2. nie można zamontować woluminu