Pomoc Przywrócenie RAID5 (inactive)

Status
Brak możliwości dodawania odpowiedzi.

salata

Passing Basics
Beginner
28 Czerwiec 2012
11
2
3
Luebeck
QNAP
TS-x59 Pro+
Ethernet
1 GbE
Witam wszystkich,
mam problem z RAID5 w moim Qnapie. Perspektywa utraty danych jest dla mnie troche przerazajaca, ze wzgledu na czas jakim musialbym poswieci na ich odtwarzanie o odbudowe. Moj server to QNAP TS-559Pro+ dziala na firmware 4.0.5. 4 dyski dzialaja jako RAID5 jeden jako single. Jakis czas temu postanowilem wymienic 2 dyski (1TB) na wieksze(3 TB), co zrobilem wg instrukcji. SERWER dziala na tej konfiguracji przez pare tygodni. Jako, ze musze czekac jeszcze pare nastepnych na wymiane 2 pozostalych i dokonanie powiekszenia woluminu, pech sie zdazyl chyba dzis w nocy, ze nagle RAID5 przestal byc widoczny. Zobaczylem blad w rtorrent, po czym zrestartowalem serwer. Blad jaki dostaje w logach to: [RAID5 Disk Volume: Drive 1 2 3 4] RAID device is inactive. Wszystkie dyski do WD RED.
Dostalem sie przez powloke i uruchomilem pare komend, ale juz nie wiem, co dalej z tym zrobic:

Kod:
[~] # df -h
Filesystem                Size      Used Available Use% Mounted on
/dev/ram0              139.5M    119.7M    19.8M  86% /
tmpfs                    64.0M    448.0k    63.6M  1% /tmp
/dev/sda4              364.2M    241.7M    122.5M  66% /mnt/ext
/dev/md9                509.5M    102.3M    407.1M  20% /mnt/HDA_ROOT
/dev/sde3                2.7T      2.5T    167.8G  94% /share/HDE_DATA
tmpfs                    32.0M        0    32.0M  0% /.eaccelerator.tmp

Kod:
[~] # cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md5 : active raid1 sde2[2](S) sdd2[3](S) sdc2[4](S) sdb2[1] sda2[0]
      530048 blocks [2/2] [UU]

md13 : active raid1 sda4[0] sde4[4] sdd4[3] sdc4[2] sdb4[1]
      458880 blocks [5/5] [UUUUU]
      bitmap: 0/57 pages [0KB], 4KB chunk

md9 : active raid1 sda1[0] sde1[4] sdd1[3] sdc1[2] sdb1[1]
      530048 blocks [5/5] [UUUUU]
      bitmap: 0/65 pages [0KB], 4KB chunk

unused devices: <none>

Kod:
[~] # mdadm /dev/md0
/dev/md0: is an md device which is not active

Kod:
[~] # fdisk -l

Disk /dev/sde: 3000.5 GB, 3000592982016 bytes
255 heads, 63 sectors/track, 364801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

  Device Boot      Start        End      Blocks  Id  System
/dev/sde1              1      267350  2147483647+  ee  EFI GPT

Disk /dev/sdd: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

  Device Boot      Start        End      Blocks  Id  System
/dev/sdd1              1          66      530125  83  Linux
/dev/sdd2              67        132      530142  83  Linux
/dev/sdd3            133      121538  975193693  83  Linux
/dev/sdd4          121539      121600      498012  83  Linux

Disk /dev/sdc: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

  Device Boot      Start        End      Blocks  Id  System
/dev/sdc1              1          66      530125  83  Linux
/dev/sdc2              67        132      530142  83  Linux
/dev/sdc3            133      121538  975193693  83  Linux
/dev/sdc4          121539      121600      498012  83  Linux

Disk /dev/sdb: 3000.5 GB, 3000592982016 bytes
255 heads, 63 sectors/track, 364801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

  Device Boot      Start        End      Blocks  Id  System
/dev/sdb1              1      267350  2147483647+  ee  EFI GPT

Disk /dev/sda: 3000.5 GB, 3000592982016 bytes
255 heads, 63 sectors/track, 364801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

  Device Boot      Start        End      Blocks  Id  System
/dev/sda1              1      267350  2147483647+  ee  EFI GPT

Disk /dev/sda4: 469 MB, 469893120 bytes
2 heads, 4 sectors/track, 114720 cylinders
Units = cylinders of 8 * 512 = 4096 bytes

Disk /dev/sda4 doesn't contain a valid partition table

Disk /dev/sdx: 515 MB, 515899392 bytes
8 heads, 32 sectors/track, 3936 cylinders
Units = cylinders of 256 * 512 = 131072 bytes

  Device Boot      Start        End      Blocks  Id  System
/dev/sdx1              1          17        2160  83  Linux
/dev/sdx2              18        1910      242304  83  Linux
/dev/sdx3            1911        3803      242304  83  Linux
/dev/sdx4            3804        3936      17024    5  Extended
/dev/sdx5            3804        3868        8304  83  Linux
/dev/sdx6            3869        3936        8688  83  Linux

Disk /dev/md9: 542 MB, 542769152 bytes
2 heads, 4 sectors/track, 132512 cylinders
Units = cylinders of 8 * 512 = 4096 bytes

Disk /dev/md9 doesn't contain a valid partition table

Disk /dev/md5: 542 MB, 542769152 bytes
2 heads, 4 sectors/track, 132512 cylinders
Units = cylinders of 8 * 512 = 4096 bytes

Disk /dev/md5 doesn't contain a valid partition table

Kod:
mdadm --assemble /dev/md0 /dev/sda /dev/sdb /dev/sdc /dev/sdd
mdadm: cannot open device /dev/sda: Device or resource busy
mdadm: /dev/sda has no superblock - assembly aborted

Kod:
[~] # cat /etc/mtab
/proc /proc proc rw 0 0
none /dev/pts devpts rw,gid=5,mode=620 0 0
sysfs /sys sysfs rw 0 0
tmpfs /tmp tmpfs rw,size=64M 0 0
none /proc/bus/usb usbfs rw 0 0
/dev/sda4 /mnt/ext ext3 rw 0 0
/dev/md9 /mnt/HDA_ROOT ext3 rw,data=ordered 0 0
/dev/sde3 /share/HDE_DATA ext4 rw,usrjquota=aquota.user,jqfmt=vfsv0,user_xattr,data=ordered,nodelalloc,noacl 0 0
tmpfs /.eaccelerator.tmp tmpfs rw,size=32M 0 0

Pomorzcie, bo te wlosy, co mi na glowie zostaly zaczynaj mi siwiec, kiedy mysle, ze czesc danych z tych dyskow mi zginela bezpowrotnie. Najwazniejsze mam na komputerze, ale niektore byly tylko na NASie. Dzieki z gory za wszystkie sugestie i pomoc.

Pozdrawiam
MarcinPrzepraszam za zdublowane watki. Drugi mozna wywalic.

Po reatarcie RAID5 ma status unmounted.

Zrobilem e2fsck
Kod:
# e2fsck /dev/md0
e2fsck 1.41.4 (27-Jan-2009)
The filesystem size (according to the superblock) is 731395200 blocks
The physical size of the device is 731395152 blocks
Either the superblock or the partition table is likely to be corrupt!
answer=1
uruchomienie e2fsck z innym superblockiem (-b) daje ten sam rezultat co powyzej.



natomiast obecnie more /proc/mdstat daje wynik
Kod:
[/] # more /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md0 : active raid5 sdd3[3] sdc3[2] sdb3[1] sda3[0]
      2925580608 blocks super 1.0 level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

md5 : active raid1 sde2[2](S) sdd2[3](S) sdc2[4](S) sdb2[1] sda2[0]
      530048 blocks [2/2] [UU]

md13 : active raid1 sda4[0] sde4[4] sdd4[3] sdc4[2] sdb4[1]
      458880 blocks [5/5] [UUUUU]
      bitmap: 0/57 pages [0KB], 4KB chunk

md9 : active raid1 sda1[0] sde1[4] sdd1[3] sdc1[2] sdb1[1]
      530048 blocks [5/5] [UUUUU]
      bitmap: 0/65 pages [0KB], 4KB chunk

unused devices: <none>
raid jest wiec widoczny tylkonie moge go zamontowac lub uruchomic na nim e2fsckUpdate:

Kod:
[/] # mdadm --detail /dev/md0
/dev/md0:
        Version : 01.00.03
  Creation Time : Thu Apr 10 15:46:47 2014
    Raid Level : raid5
    Array Size : 2925580608 (2790.05 GiB 2995.79 GB)
  Used Dev Size : 975193536 (930.02 GiB 998.60 GB)
  Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Thu Apr 10 22:24:38 2014
          State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
  Spare Devices : 0

        Layout : left-symmetric
    Chunk Size : 64K

          Name : 0
          UUID : 9364c210:012128dc:a335f919:8349fe1e
        Events : 2

    Number  Major  Minor  RaidDevice State
      0      8        3        0      active sync  /dev/sda3
      1      8      19        1      active sync  /dev/sdb3
      2      8      35        2      active sync  /dev/sdc3
      3      8      51        3      active sync  /dev/sdd3

Ogolnie dane chyba wciaz sa, ale nie moge sie do nich dostac. Nie wiem jak skorygowac tablice partycji na /dev/md0 bez ryzyka utarty tych danych. Poki co nie odlaczalem dyskow, aby niczego nie spieprzyc.
 
Hey.

Jeśli jutro jesteś dostępny, to chętnie pomogę Ci w próbie rozwiązania problemu... Mój numer gadu gadu: 7662900 lub skype: silas_raverworld
Jeśli natomiast nie uda nam się porozumieć lub będziesz niecierpliwy to zgłoś się do bezpośrednio do helpdekspu QNAP po adres email: eesupport@qnap.com powołując na mnie....

Informuj mnie o statusie sprawy!
 
Ostatnio edytowane:
  • Lubię to
Reakcje: krakers i kaktus
Dzieki Mariusz.
Czekam w takim razie na odzew. Poki co dostalem instrukcje od supportu, ale poki co polegala tylko na usunieciu jednego z dysku. status macierzy jest obecnie jako unmounted.

Kod:
[~] # mdadm -CfR --assume-clean /dev/md0 -l 5 -n 4 missing /dev/sdb3 /dev/sdc3 /dev/sdd3
mdadm: Defaulting to version 1.-1 metadata
mdadm: /dev/sdb3 appears to be part of a raid array:
    level=raid5 devices=4 ctime=Thu Apr 10 15:46:47 2014
mdadm: /dev/sdc3 appears to be part of a raid array:
    level=raid5 devices=4 ctime=Thu Apr 10 15:46:47 2014
mdadm: /dev/sdd3 appears to contain an ext2fs file system
    size=-1100951040K  mtime=Wed Feb 26 18:23:55 2014
mdadm: /dev/sdd3 appears to be part of a raid array:
    level=raid5 devices=4 ctime=Thu Apr 10 15:46:47 2014
mdadm: largest drive (/dev/sdb3) exceed size (975193536K) by more than 1%
mdadm: array /dev/md0 started.

[~] # mount -t ext4 /dev/md0 /share/MD0_DATA
mount: wrong fs type, bad option, bad superblock on /dev/md0,
      missing codepage or other error
      In some cases useful info is found in syslog - try
      dmesg | tail  or so

[~] # cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md0 : active raid5 sdd3[3] sdc3[2] sdb3[1]
      2925580608 blocks super 1.0 level 5, 64k chunk, algorithm 2 [4/3] [_UUU]

md5 : active raid1 sde2[2](S) sdd2[3](S) sdc2[4](S) sdb2[1] sda2[0]
      530048 blocks [2/2] [UU]

md13 : active raid1 sda4[0] sde4[4] sdd4[3] sdc4[2] sdb4[1]
      458880 blocks [5/5] [UUUUU]
      bitmap: 0/57 pages [0KB], 4KB chunk

md9 : active raid1 sda1[0] sde1[4] sdd1[3] sdc1[2] sdb1[1]
      530048 blocks [5/5] [UUUUU]
      bitmap: 0/65 pages [0KB], 4KB chunk

unused devices: <none>
 
Wykonałem poniższe polecenie, aby przyłączyć wolumin sda3 do macierzy RAID md0.
Bash:
mdadm /dev/md0 --add /dev/sda3

Ponadto utawiłem, aby przyśpieszyć odbudowe RAID:
Bash:
echo 50000 >/proc/sys/dev/raid/speed_limit_min
echo 150000 >/proc/sys/dev/raid/speed_limit_max

Status:
cat /proc/mdstat | grep recovery
Kod:
      [==>..................]  recovery = 11.3% (111046908/975193536) finish=143.0min speed=100654K/sec
 
  • Lubię to
Reakcje: kaktus
Dane odzyskalem korzystajc z softu forumowego. Na chwile obecna qnap musi popracowac wg mnie nad rozszerzaniem macierzy raid5, bo roces nie jest bezproblemowy. Nie tylko ja zglaszalem podobne problemy. Obecnie jade na RAID1 na kopie zapasowa i inne newralgiczne dane + 3 dyski i zastanowie sie czy wrocic do konfiguracji raid5 z 4 dyskow.
 
  • Lubię to
Reakcje: Silas Mariusz
Nie podoba mi sie, ale po przejsciach z RAIDem musze stwierdzic, ze proces jest lekko problematyczny. Moze mialem pecha. Co do standardu to qnap pewnie pod nakladka ukrywa linuksa i mdadm, ale nie zmienia faktu, ze jak podejme decyzje o rozszerzeniu do RAID5 z obecnego RAID1 to bedzie to troche proces stresujacy. Newralgiczne dane mam zbackupowane w innych miejscach, jednak zgranie moich filmow z DVD i ripowanie Bluray kosztowalo mnie troche czasu i wolalbym tego ponownie uniknac.
 
Mój nas to backup, szczęśliwie miałem dane i pojemność na komputerze aby część odzyskać. To było zaledwie 3TB. Teraz przy RAID5 byłoby 9TB. Jak zapcham taka pojemność to nie wyobrażam sobie jakbym miał to odzyskać. Zgrywanie z płyt Blu Ray trwa jednak trochę. Muszę pomyśleć jak sobie zorganizować przestrzeń najlepiej mając do dyspozycji 4 dyski.

Tapnięte z Nexusa.
Pozdrawiam
Salata
 
To było zaledwie 3TB.
Drobnica.


Muszę pomyśleć jak sobie zorganizować przestrzeń najlepiej mając do dyspozycji 4 dyski.
Nie majstrując przy urządzeniu, jak odbudowuje sobie ono dane, nie mieszając dyskami jak jest przeprowadzane rebuild.


Postawiłem wiele RAID5 i powiem wprost, dopóki nie wiesz co robisz to nie mieszaj ... najgorzej gdy jakiś "zielony" nieznając zasad zacznie "naprawiać" wg widzimi się, jest jazda jak trzeba odzyskać dane i postawić to na "wczoraj".

Musiałem się wyżalić, wybacz że na Tobie.
 
Coz, ten qnap taki prosty to nie jest jak go maluja. 2 razy probowalem zrobic migracje z RAID1 do RAID 5 i za kazdym razem mi wywala blad RAID Migration failed. Wkurzajace, szczegolnie, ze uzywalem web interfejsu. Teraz (2gi raz) znow musze zsynchronizowac RAID1. Wczesniej mialem NAS'a opartego na freenasie i zfs, ktorym jedynym problemem byla pamieciozernosc systemu plikow. Zachcialo mi sie takiego cudaka all-in-one i zaczynam zalowac. Nie chce mi sie kombinowac z rekonfiguracja od zera, bo ani czasu ani checi nie mam.

Co do RAID to mam wieksze doswiadczenie z rozwiazaniami opartymi na sprzetowych kontrolerach i dyskach SAS itp.
 
  • Lubię to
Reakcje: kaktus
Co do RAID to mam wieksze doswiadczenie z rozwiazaniami opartymi na sprzetowych kontrolerach i dyskach SAS itp.
Nie masz. Bo gdybyś miał, to nigdy w życiu byś nie przytoczył sprzętowego raidu na porównanie. Sprzętowy RAID to jeszcze większa dupa podczas działań odtworzeniowych. A karty RAID 1 to żadne doświadczenie i nie powód do dumy ...
 
Status
Brak możliwości dodawania odpowiedzi.

Użytkownicy znaleźli tą stronę używając tych słów:

  1. e2fsck
  2. nie można zamontować woluminu