Pomoc RAID5 Dodanie 4 dysku i kolejny przebieg przebudowy

avis

Systems Admin...
Q's Expert
4 Grudzień 2010
364
119
43
52°17'21.9"N 21°02'45.2"E
QNAP
TVS-x71U
Ethernet
1 GbE
Witam
Na początku może podam konfigurację mojego sprzętu:
TS-420
QTS ver. 4.0.2 z 26.07.2013
Od niedawna 4 dyski WD RED po 2 TB każdy

A teraz opisze mój problem/wątpliwości

Mianowicie do niedawna w Qnapie były wsadzone 3 HDD i pracowały w RAID5. W ostatnich dniach dokupiłem 4 dysk ponieważ po przeniesieniu danych z poprzedniego QNAPA zrobiło się dość ciasno. Po dołożeniu dysku i rozszerzeniu RAID5 Qnap rozpoczął przebudowę. Wszystko wyglądało normalnie (poza tym że nie zwiększył pojemności o miejsce z dołożonego dysku ale to sobie tłumaczyłem że jak skończy przebudowę to je dokoptuje) i wszystko było by fajnie gdyby nie fakt że dziś po zalogowaniu sie do Qnapa zauważyłem że przebudowa dysku rozpoczęła się od nowa. Z logów wyczytałem że poprzednia zakończyła się ok godz. 7:46 a nowa wystartowała chwilę później. I teraz moje pytanie czy to jest normalne że w tego typu operacjach jest więcej niż jeden przebieg?? Czy mam się zacząć martwić??

Niektórzy mogą zauważyć że pisałem posty odnośnie odbudowy RAID5 dlatego chciałbym zaznaczyć iż tamte posty dotyczyły zupełnie innego sprzętu a ten jest moim prywatnym i urządzenie to ma mniej niż miesiąc a dyski w nim były zainstalowane od zera i nie miało miejsce żadne przenoszenie pomiędzy dwoma różnymi urządzeniami. Aha na koniec dodam że w tym przebiegu przebudowy zastosowałem tricki z tutoriala o przyspieszeniu odbudowy RAID i powyłączałem usługi.

poniżej wyniki poleceń:

cat /etc/mtab

Kod:
/proc /proc proc rw 0 0
none /dev/pts devpts rw,gid=5,mode=620 0 0
sysfs /sys sysfs rw 0 0
tmpfs /tmp tmpfs rw,size=32M 0 0
none /proc/bus/usb usbfs rw 0 0
/dev/sda4 /mnt/ext ext3 rw 0 0
/dev/md9 /mnt/HDA_ROOT ext3 rw 0 0
/dev/md0 /share/MD0_DATA ext4 rw,usrjquota=aquota.user,jqfmt=vfsv0,user_xattr,data=ordered,delalloc,noacl 0 0
nfsd /proc/fs/nfsd nfsd rw 0 0
tmpfs /var/syslog_maildir tmpfs rw,size=8M 0 0
none /sys/kernel/config configfs rw 0 0

cat /proc/mdstat

Kod:
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md4 : active raid1 sdd2[2](S) sdc2[3](S) sdb2[1] sda2[0]
      530048 blocks [2/2] [UU]

md0 : active raid5 sda3[0] sdd3[4] sdc3[2] sdb3[1]
      5840775936 blocks level 5, 64k chunk, algorithm 2 [4/3] [UUU_]
      [=======>.............]  recovery = 37.4% (728491520/1946925312) finish=356.5min speed=56948K/sec

md13 : active raid1 sda4[0] sdd4[3] sdc4[2] sdb4[1]
      458880 blocks [4/4] [UUUU]
      bitmap: 0/57 pages [0KB], 4KB chunk

md9 : active raid1 sda1[0] sdd1[3] sdc1[2] sdb1[1]
      530048 blocks [4/4] [UUUU]
      bitmap: 0/65 pages [0KB], 4KB chunk

unused devices: <none>

mdadm --detail /dev/md0

Kod:
/dev/md0:
        Version : 00.90.03
  Creation Time : Wed Jan 15 22:04:23 2014
     Raid Level : raid5
     Array Size : 5840775936 (5570.20 GiB 5980.95 GB)
  Used Dev Size : 1946925312 (1856.73 GiB 1993.65 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Thu Jan 23 12:34:11 2014
          State : clean, degraded, recovering
Active Devices : 3
Working Devices : 4
Failed Devices : 0
  Spare Devices : 1

         Layout : left-symmetric
     Chunk Size : 64K

Rebuild Status : 37% complete

           UUID : 14f8b7cf:D8914337:8ae869b8:5699e457
         Events : 0.249110

    Number   Major   Minor   RaidDevice State
       0       8        3        0      active sync   /dev/sda3
       1       8       19        1      active sync   /dev/sdb3
       2       8       35        2      active sync   /dev/sdc3
       4       8       51        3      spare rebuilding   /dev/sdd3

i na koniec:

df

Kod:
Filesystem                Size      Used Available Use% Mounted on
/dev/ram0                32.9M     15.2M     17.7M  46% /
tmpfs                    32.0M    692.0k     31.3M   2% /tmp
/dev/sda4               364.2M    301.0M     63.3M  83% /mnt/ext
/dev/md9                509.5M    109.4M    400.0M  21% /mnt/HDA_ROOT
/dev/md0                  3.6T      3.3T    236.4G  94% /share/MD0_DATA
tmpfs                     8.0M         0      8.0M   0% /var/syslog_maildir



UPDATE:

Chyba już wiem skąd ten drugi przebieg. Mianowicie 4 dysk został dodany do macierzy jednak nie udało się rozszerzanie pojemności (startuje i na 50% zatrzymuje się z komunikatem że rozszerzenie pojemności nie powiodło się) zamiast tego dostaje takie ostrzeżenia w logach:

alh4.googleusercontent.com__ceTq_RgGDkQ_UuF51TU3JKI_AAAAAAAAsEk_EEBIDfuIGaY_w1117_h63_no_error.PNG


Mógłby się ktoś wypowiedzieć na temat tego błędu?? Domyślam się że czeka mnie reklamowanie dysku a najgorsze jest to że mam go dopiero jakieś 3 dni :/
 
Ostatnio edytowane:
W sensie jak sie pochwal?? to tylko 4x WD Red 2TB WD20EFRX-68EUZN0

Jeżeli chcesz screena to narazie nie mam szansy go zrobić bo QNAP właśnie mi zmarł nie jest nawet w stanie wykonać restartu z konsoli i chyba go wyłącze na twardo i wyjme ten nowy dysk :/
 
Ostatnio edytowane:
Dobra wyłączyłem go na twardo i wyjąłem ten dysk i teraz mam pytanko jak to teraz bedzie bo na chwile obecną sytuacja wygląda tak:

miałem RAID5 na 3 dyskach
dodałem dysk 4 do tego RAID bez powiększania pojemności bo nie pykło
wyjąłem ten czwarty dysk bo są znim problemy czyli idąc tym tropem po uruchomieniu bede miał RAID5 degraded
i tu moje pytanie czy w razie jak mi padnie (tfu tfu) kolejny dysk to mogę zacząć płakać za danymi?

Czy jest jakaś opcja usunięcia tego 4 dysku z RAID5??No i wszystko jasne:
alh6.googleusercontent.com__7Ygl2FhMK5E_UuGLMiISbyI_AAAAAAAAsFE_ZOH8LNNsbB8_w931_h518_no_error2.PNG


Jutro dysk wraca do sprzedawcy
 
Ostatnio edytowane:
  • Lubię to
Reakcje: Silas Mariusz
A mojemu znajomemu jak dobrze pójdzie i bedzie jutro jechał do hurtowni 1 dzień wiec warto spróbować bo nawet jakbym jutro go na serwis zgłosił to i tak ruszy dopiero w poniedziałek do WD, a właśnie jak wygląda sprawa z wysyłką do WD?? Też na własny koszt do punktu gdzie zbierają sprzęt do wysyłki do serwisu za granicą tak jak to ma miejsce w Seagate?No nie teraz zgłupiałem
Właśnie włożyłem ten dysk spowrotem i jest tak:

alh5.googleusercontent.com__uYrXokA3eTY_UuGQgZgydtI_AAAAAAAAsFc_Jj1WGkwGqts_w905_h418_no_error4.PNG


a informacje smart wyglądają tak:

alh4.googleusercontent.com__G9NDsNATDGI_UuGQgVLrsOI_AAAAAAAAsFg_MEzvcEU09j0_w924_h523_no_error3.PNG


martwi mnie troche pierwszy parametr bo reszta dysków ma wartość zerową. Może ktoś wie o co kaman?Dodam że informacje smart tak wyglądały nawet jak statys dysku był: Nieprawidlowy, wszystkie wartości były ok. Powiem szczerze że zaczynam się zastanawiać czy przypadkiem nie jest to wina QNAP-a bo jak już pisałem jest to świeże urządzenie (mam je z tydzień) i powiem szczerze że jeszcze mu nie ufam. Może włożyć ten dysk do mojego drugiego QNAP-a i zobaczyć co tam sie będzie działo zwłaszcza że stoi odłogiem bo czeka na dyski
 
Rozwiązanie:
podłącz do dysku tylko zasilanie - weź srubokręt i uderz gumową rączką śrubokręta w bok dysku tak żeby zaczął chrobotać, RMA gwarantowane w 100%. Tylko nie porysuj go czasem! :p :>

Z tego co HDD widzę jest na compatibility list.

Tak na serio: Albo sprawdzisz że QNAP pracuje z tym dyskiem za pomocą swojego własnego czasu (pomimo że test wcześniej wykazał że nie jest OK) albo odeślesz go do RMA.
 
  • Angry
Reakcje: kaktus
Ano jest bo po przejściach z dyskami Seagate Green w poprzednim Qnapie tym razem zakupiłem te które są na compatibility list, ale wracając do mojego pytania jak to jest teraz z tym RAID5 bo wg prawideł przy 4 dyskach ( nie rozszerzałem pojemności) wychodzi z moich domniemywań że dopuszczalna jest awaria 2 HDD bez utraty danych, ale może się mylę

Przekonałeś mnie tym czasem ide szukać odpowiedniego śrubokręta :DDobra nie był potrzebny nawet śrubokręt i wyjaśniło się skąd ten drugi przebieg w przebudowie, po prostu dysk to padaka

alh6.googleusercontent.com__qhEyK1NLHNY_UuIn96tW0LI_AAAAAAAAsGea94d9b42ee26d01941c33788a5ceba5.jpg

alh4.googleusercontent.com__QD_bw1CV0os_UuIn9MBhT6I_AAAAAAAAsG6b7606e01ea12ae4bfff2c8b2e1b4569.jpg


Jak widać nawet podstawowego testu nie przechodzi

a tu pierwszy sektor z którym sie mordował:

alh6.googleusercontent.com__71phPgpzqoA_UuIn8fHUy_I_AAAAAAAAsG307585be4b9bcb5b76effd34c59eeb64.jpg


W końcu udało mu się przez niego przebrnąć jednakże na drugim ja straciłem cierpliwość biorąc pod uwagę w jakim tempie rósł czas pozostały do zakończenia testu

alh3.googleusercontent.com__I_YgGz_eMpI_UuIn8SJ5cNI_AAAAAAAAsF75d8f489df440d8215461549e1736d82.jpg

alh6.googleusercontent.com__mILHEvNnpIo_UuIn8a8c1JI_AAAAAAAAsG8acbaf8890d06c952bebeb9c5b41f5c3.jpg


alh4.googleusercontent.com__V8L0GtKp78E_UuIn8_C8JjI_AAAAAAAAsG2a07d5ad11d226c2e39caf52ae62e72f.jpg


alh5.googleusercontent.com__uDZIVwFAhRA_UuIn9N1m1UI_AAAAAAAAsG44f5b6d6e8b6a306e0399cc46a638a28.jpg


Tak więc taka dobra rada dla tych którzy wkładają do Qnapa i nie tylko nowy dysk

Przetestujcie go zanim zaczniecie na nim odbudowywać RAID z istotnymi danymi bo może się okazać to zgubne w skutkach dla tych danych lub dla całego RAID, a tak wogóle to Backup, Backup i jeszcze raz Backup

Temat do zamknięcia :)Na koniec dodam że dla pewności zapuściłem jeszcze testy na HD Tune i Sentinelu ale oba programy zmarły wiec dysk zaliczył dwa strzały o blat biurka tak dla poprawy parametrów aż sie pół działu w robocie zleciało :D Oczywiście troskliwie go zabezpieczyłem przed niechcianymi rysami no i nie odłączałem zasilania bo inaczej poprawa parametrów by nie zadziałała :D
 
Ostatnio edytowane:
  • Lubię to
Reakcje: Silas Mariusz
No dysk ogarnięty a odbudowa w toku. Nawet nieźle idzie.

alh6.googleusercontent.com__c5__lLdQ8X4_UuKxgWGkKoI_AAAAAAAAsHQ__FZapr90yIE_w642_h328_no_putty.PNG


Co prawda wyłączone wszystkie usługi a QNAP będzie przez najbliższe godziny nie do użytku ale za to nie będe czekał całego weekendu aż ogarnie nowy dysk. Mam tylko nadzieje że przez takie przyspieszanie nie wynikną znowu jakieś kłopociki
 
  • Lubię to
Reakcje: Silas Mariusz
No to już wcześniej znalazłem tylko sie zastanawiam czy to nie ma jakiegoś wpływu na odbudowę, no ale nic zobacze jutro a teraz mam w końcu chwilę zająć się skończeniem przenoszenia danych z mojego leciwego linksysa na poprzedniego Qnapa. Tam z kolei mam taki myk że co jakiś czas wypina mi się jeden z dysków w RAID0 i musze całego nasa restartować.
 

Użytkownicy znaleźli tą stronę używając tych słów:

  1. rozszerzenie raid 5 dodanie dysku