Pomoc Odbudowa RAID10 po wymianie dysku

kojot

Passing Basics
Beginner
19 Styczeń 2011
14
2
3
42
QNAP
TS-x51+
Ethernet
1 GbE
Witam, mam QNAP TS-879U z 8 HDD Seagate Constellation ES2 1TB w konfiguracji
HDD 1,2,3,4 - RAID10
HDD 5,6,7,8 - RAID10
Ostatnio dysk 4 wywalił błąd i RAID przeszedł w tryb "zdegradowany". Wymieniłem ten dysk na nowy WDC WD20EFRX
Jak wystartować z odbudowa macierzy do RAID10. Dysk ma status "Wolny" i nic więcej nie mogę zrobić

PS. przy okazji chcę wymienić wszystkie dyski po kolei na nowe 2TB i powiększyć rozmiar dostępnego miejsca.
 
Cześć,
Po wymianie uszkodzonego HDD, NAS automatycznie zaczyna odbudowę uszkodzonej macierzy. Jak nie chce , to wyjmij nowy i zapakuj jeszcze raz. Powinien pisnąć przez chwilę i zacząć odbudowę.

Jak naprawisz RAID to wtedy zabierz sie za wymianę dysków na większe, temat poruszany wielokrotnie na forum. Wystarczy poszukać ;)
 
  • Lubię to
Reakcje: Silas Mariusz
@Silas - coś z GUI tam można kliknąć ?

PS : daj screena z zarządzania RAIDem i zarządzania wolumenami (używam ang GUI).

upload_2015-8-2_23-29-27.png


upload_2015-8-2_23-29-41.png
 
Dysk jest całkiem nowy (inny) o większym rozmiarze. Było 1TB wkładam 2TB.
Poprzedni dysk miał status "zły" i został wyłączony a macierz "zdegradowana"

PS. Mam jeszcze TS-439Pro 4 dyski w RAID5 właśnie wymieniłem jeden z dysków i macierz bez problemów sama zaczęła się odbudowywać, a w tym TS-879U nie startuje odbudowa ;(
 
To nie odbudujesz, włóż nowy o tej samej pojemności co reszta to poleci. Jak się odbuduje, przeprowadź operację powiększania zgodnie z instrukcją czyli dysk po dysku. Ale aby to zrobić RAID musi być "zdrowy".
 
Na razie poleciał jeden, a 4 mają status "ostrzeżenie" dlatego wymieniam wszystkie 8 dysków na nowe. Ten uszkodzony i 4 z bad sektorami jadą do Seagate na gwarancji.
Niestety włożenie dyski o takim samym rozmiarze nie pomogło ;(
Nadal jest jako gotowy, a macierz się nie odbudowuje.
 
jak dla mnie to albo go trzeba go zmusić do odbudowy za pomocą shella :
ZAZNACZAM KOMENDY SĄ PRZYKŁADOWE:

Bash:
Check your current disk configuration for Disk #1 and Disk #2 =
fdisk -l /dev/sda

Disk /dev/sdb: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1               1          66      530125   83  Linux
/dev/sdb2              67         132      530142   83  Linux
/dev/sdb3             133      121538   975193693   83  Linux
/dev/sdb4          121539      121600      498012   83  Linux

fdisk -l /dev/sdb

Disk /dev/sda: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1               1          66      530125   83  Linux
/dev/sda2              67         132      530142   83  Linux
/dev/sda3             133      121538   975193693   83  Linux
/dev/sda4          121539      121600      498012   83  Linux
SDA is the first disk, SDB is the second disk
Verify the current status of RAID with this command =
mdadm –detail /dev/md0

/dev/md0:
        Version : 00.90.03
  Creation Time : Thu Sep 22 21:50:34 2011
     Raid Level : raid1
     Array Size : 486817600 (464.27 GiB 498.50 GB)
  Used Dev Size : 486817600 (464.27 GiB 498.50 GB)
   Raid Devices : 2
  Total Devices : 1
Preferred Minor : 0
    Persistence : Superblock is persistent

  Intent Bitmap : Internal

    Update Time : Thu Jul 19 01:13:58 2012
          State : active, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 0
  Spare Devices : 0

           UUID : 72cc06ac:570e3bf8:427adef1:e13f1b03
         Events : 0.1879365

    Number   Major   Minor   RaidDevice State
       0       0        0        0      removed
       1       8        3        1      active sync  /dev/sda3
As you can see the /dev/sda3 is working, so disk #1 is OK, but disk #2 is missing from RAID
Check if Disk #2 /dev/sdb is mounted (it should be) =
mount

/proc on /proc type proc (rw)
none on /dev/pts type devpts (rw,gid=5,mode=620)
sysfs on /sys type sysfs (rw)
tmpfs on /tmp type tmpfs (rw,size=32M)
none on /proc/bus/usb type usbfs (rw)
/dev/sda4 on /mnt/ext type ext3 (rw)
/dev/md9 on /mnt/HDA_ROOT type ext3 (rw)
/dev/md0 on /share/MD0_DATA type ext4 (rw,usrjquota=aquota.user,jqfmt=vfsv0,user_xattr,data=ordered,delalloc,noacl)
tmpfs on /var/syslog_maildir type tmpfs (rw,size=8M)
/dev/sdt1 on /share/external/sdt1 type ufsd (rw,iocharset=utf8,dmask=0000,fmask=0111,force)
tmpfs on /.eaccelerator.tmp type tmpfs (rw,size=32M)
/dev/sdb3 on /share/HDB_DATA type ext3 (rw,usrjquota=aquota.user,jqfmt=vfsv0,user_xattr,data=ordered,noacl)

Dismount the /dev/sdb3 Disk #2 with this command =
umount /dev/sdb3
Add Disk #2 into the RAID /dev/md0 =
mdadm /dev/md0 –add /dev/sdb3

mdadm: added /dev/sdb3
Check the RAID status and the rebuild should be started automatically =
mdadm –detail /dev/md0

/dev/md0:
        Version : 00.90.03
  Creation Time : Thu Sep 22 21:50:34 2011
     Raid Level : raid1
     Array Size : 486817600 (464.27 GiB 498.50 GB)
  Used Dev Size : 486817600 (464.27 GiB 498.50 GB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 0
    Persistence : Superblock is persistent

  Intent Bitmap : Internal

    Update Time : Thu Jul 19 01:30:27 2012
          State : active, degraded, recovering
Active Devices : 1
Working Devices : 2
Failed Devices : 0
  Spare Devices : 1

Rebuild Status : 0% complete

           UUID : 72cc06ac:570e3bf8:427adef1:e13f1b03
         Events : 0.1879848

    Number   Major   Minor   RaidDevice State
       2       8       19        0      spare rebuilding   /dev/sdb3
       1       8        3        1      active sync   /dev/sda3
Check the NAS site for the rebuild % progress

albo jeśli nie czujesz się na siłach - helpdesk.qnap.com pisz do producenta.
 

Mogą Cię zainteresować

Użytkownicy znaleźli tą stronę używając tych słów:

  1. Odbudowa RAID10 po wymianie dysku