Pomoc Pool Error - nie można uruchomić Qnap'a

apofis

Systems Admin...
Q's Expert
15 Wrzesień 2011
288
51
78
Wrocław
QNAP
TVS-x71
Ethernet
1 GbE
błąd qnap2.jpg błąd qnap 3.jpg Witam,

W dniu dzisiejszym urodził się problem. Mianowicie w nocy chciałem zobaczyć podgląd kamery, ponieważ pies szczekał niemiłosiernie, wiec postanowiłem, że zerkne nie wychodząć z wyra co się dzieje. Niestety nie mogłem zalogować się na kamerę. Podszedłem do kompa i po sambie na serwa wchodzę i chcę przeglądnąć nagranie z przed chwili - jak się okazuje wczoraj o godzinie 9:00 rano serwer zarejestrował ostatnie nagranie. No to loguje się na Qnapa przez www i tu niemiła niespodzinaka - nie można się zalogować brak okna do logowania. No to Qfinder - wyszukałem serwer i restart. Po restarcie dalej to samo ale zauważyłem w Qfinderze pod statusem Krzyzyk "Na NAS wystąpił poważny błąd. Skontaktuj się z administratorem systemu. (Foto w załączniku)
Błąd Qnap.jpg
Błąd Qnap.jpg


No to szybko monitor zasobów - ładnie się zalogowałem a tu lipa - BRAK DYSKU !!!
Nadmienię, że wyciągałem dyski i wkładałem od nowa, ale to nie pomogło.

Czy to oznacza śmierć dysku systemowego?
Mam Dwa dyski - pierwszy systemowy, drugi z danymi - oba jako pojedyncze wolumeny.
Co mogę zrobić i jak sprawdzić czy dysk został uszkodzony?
Nadmienię, że wcześniej serwer nie zgłaszał mi żadnych błędów - testy SMART wykonywane co tydzień, skan antywirusowy również.
Jeszcze przed wczoraj patrzyłem na stan to wszystko było na zielono z napisem "DOBRZE"

No i pytanie już na zapas:
Jeśli dysk padnięty - to jaki najlepiej kupić dysk na systemowy (pewnie już SSD) tylko do pracy ciągłej - Silas polecisz coś?


PS. EDIT:
Udało mi się zalogować przez przypadek: i okazuje się że mam wyłączoną grupę RAID1 - jest nie aktywna
Jak ja uaktywnić?
Zdjęcia spakowane w załączniku.





Wersja oprogramowania Firmware:4.3.3
Model serwera: QNAP TVS-471
 
Mam praktycznie identyczny przypadek.
Może ktoś coś poradzić. Od czego zacząć i jak odzyskać dane z macierzy RAID1.
Nie można zalogować się przez WWW (niebieski ekran i nic), można zalogować się przez SSH.
 
Temat delikatnie posunął się do przodu choć nie do końca ...
Delikatny postęp:
Kod:
[~] # cat /proc/mdstat
+ cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] 
md322 : active raid1 sdd5[3](S) sdc5[2](S) sdb5[1] sda5[0]
      7340032 blocks super 1.0 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md256 : active raid1 sdd2[3](S) sdc2[2](S) sdb2[1] sda2[0]
      530112 blocks super 1.0 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md13 : active raid1 sda4[0] sdd4[3] sdc4[2] sdb4[1]
      458880 blocks super 1.0 [24/4] [UUUU____________________]
      bitmap: 1/1 pages [4KB], 65536KB chunk

md9 : active raid1 sda1[0] sdd1[3] sdc1[2] sdb1[1]
      530048 blocks super 1.0 [24/4] [UUUU____________________]
      bitmap: 1/1 pages [4KB], 65536KB chunk

unused devices: <none>
Testowanie partycji:
Kod:
[/dev] # mdadm --examine /dev/sda3
/dev/sda3:
          Magic : a92b4efc
        Version : 1.0
    Feature Map : 0x0
     Array UUID : 96f80125:d6255336:1880ae95:1521d006
           Name : 1
  Creation Time : Tue Sep 20 03:49:59 2016
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 7794127240 (3716.53 GiB 3990.59 GB)
     Array Size : 11691190272 (11149.59 GiB 11971.78 GB)
  Used Dev Size : 7794126848 (3716.53 GiB 3990.59 GB)
   Super Offset : 7794127504 sectors
   Unused Space : before=0 sectors, after=648 sectors
          State : clean
    Device UUID : 84fafd38:ebeaaa5f:32d30643:c5b0df3b

    Update Time : Mon Jan  1 14:21:48 2018
  Bad Block Log : 512 entries available at offset -8 sectors
       Checksum : dc3a1fb0 - correct
         Events : 872

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 0
   Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
[/dev] # mdadm --examine /dev/sdb3
/dev/sdb3:
          Magic : a92b4efc
        Version : 1.0
    Feature Map : 0x0
     Array UUID : 96f80125:d6255336:1880ae95:1521d006
           Name : 1
  Creation Time : Tue Sep 20 03:49:59 2016
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 7794127240 (3716.53 GiB 3990.59 GB)
     Array Size : 11691190272 (11149.59 GiB 11971.78 GB)
  Used Dev Size : 7794126848 (3716.53 GiB 3990.59 GB)
   Super Offset : 7794127504 sectors
   Unused Space : before=0 sectors, after=648 sectors
          State : clean
    Device UUID : 14b97aaf:373d3316:61f74646:382041d8

    Update Time : Mon Jan  1 14:21:48 2018
  Bad Block Log : 512 entries available at offset -8 sectors
       Checksum : a8e0c430 - correct
         Events : 872

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 1
   Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
[/dev] # mdadm --examine /dev/sdc3
/dev/sdc3:
          Magic : a92b4efc
        Version : 1.0
    Feature Map : 0x0
     Array UUID : 96f80125:d6255336:1880ae95:1521d006
           Name : 1
  Creation Time : Tue Sep 20 03:49:59 2016
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 7794127240 (3716.53 GiB 3990.59 GB)
     Array Size : 11691190272 (11149.59 GiB 11971.78 GB)
  Used Dev Size : 7794126848 (3716.53 GiB 3990.59 GB)
   Super Offset : 7794127504 sectors
   Unused Space : before=0 sectors, after=648 sectors
          State : clean
    Device UUID : 4f1ca8e0:e618838f:5862abac:4b868441

    Update Time : Mon Jan  1 14:21:48 2018
  Bad Block Log : 512 entries available at offset -8 sectors
       Checksum : 2305d426 - correct
         Events : 872

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 2
   Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
[/dev] # mdadm --examine /dev/sdd3
/dev/sdd3:
          Magic : a92b4efc
        Version : 1.0
    Feature Map : 0x0
     Array UUID : 96f80125:d6255336:1880ae95:1521d006
           Name : 1
  Creation Time : Tue Sep 20 03:49:59 2016
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 7794127240 (3716.53 GiB 3990.59 GB)
     Array Size : 11691190272 (11149.59 GiB 11971.78 GB)
  Used Dev Size : 7794126848 (3716.53 GiB 3990.59 GB)
   Super Offset : 7794127504 sectors
   Unused Space : before=0 sectors, after=648 sectors
          State : clean
    Device UUID : 77f240ac:f7622287:bf5a4b8d:f2fe6f07

    Update Time : Mon Jan  1 14:21:48 2018
  Bad Block Log : 512 entries available at offset -8 sectors
       Checksum : 8cc9656d - correct
         Events : 872

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 3
   Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
składanie RAID'a:
Kod:
[/dev] # mdadm --assemble /dev/md1 /dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3
mdadm: failed to get exclusive lock on mapfile - continue anyway...
mdadm: /dev/md1 has been started with 4 drives.
W katalogu /mnt stworzyłem katalog /mnt/recovery/
Kod:
[/mnt] # mkdir recovery
[/mnt] # ls -la
total 4
drwxr-xr-x 11 admin administrators  220 Jan  5 17:32 ./
drwxr-xr-x 21 admin administrators  480 Jan  5 17:24 ../
drwxr-xr-x 10 admin administrators 4096 Jan  5 17:21 HDA_ROOT/
drwxr-xr-x  3 admin administrators   60 Dec 29 22:04 config/
drwxr-sr-x  3 admin administrators   60 Jan  5 17:23 ext/
drwxr-xr-x  2 admin administrators   40 Jan  5 17:32 recovery/
drwxrwxrwx  2 admin administrators   40 Jan  5  2018 sda_root/
drwxrwxrwx  2 admin administrators   40 Jan  5  2018 sdb_root/
drwxrwxrwx  2 admin administrators   40 Jan  5  2018 sdc_root/
drwxrwxrwx  2 admin administrators   40 Jan  5  2018 sdd_root/
drwxrwxrwx  3 admin administrators   60 Jan  5  2018 snapshot/
Próba zamontowania:
Kod:
[/mnt] # mount -t ext4 /dev/md1 /mnt/recovery
mount: wrong fs type, bad option, bad superblock on /dev/md1,
       missing codepage or other error
       In some cases useful info is found in syslog - try
       dmesg | tail  or so
Status RAID:
Kod:
[/mnt] # more /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] 
md1 : active raid5 sda3[0] sdd3[3] sdc3[2] sdb3[1]
      11691190272 blocks super 1.0 level 5, 512k chunk, algorithm 2 [4/4] [UUUU]
     
md322 : active raid1 sdd5[3](S) sdc5[2](S) sdb5[1] sda5[0]
      7340032 blocks super 1.0 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md256 : active raid1 sdd2[3](S) sdc2[2](S) sdb2[1] sda2[0]
      530112 blocks super 1.0 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md13 : active raid1 sda4[0] sdd4[3] sdc4[2] sdb4[1]
      458880 blocks super 1.0 [24/4] [UUUU____________________]
      bitmap: 1/1 pages [4KB], 65536KB chunk

md9 : active raid1 sda1[0] sdd1[3] sdc1[2] sdb1[1]
      530048 blocks super 1.0 [24/4] [UUUU____________________]
      bitmap: 1/1 pages [4KB], 65536KB chunk

unused devices: <none>
[/mnt] # mdadm --examine --scan
ARRAY /dev/md/9  metadata=1.0 UUID=06cfe7d1:43c9c1fd:e254e46f:b1653d3e name=9
ARRAY /dev/md/256  metadata=1.0 UUID=fe89fcc0:6da0ee66:23cd4c81:4e62d7c3 name=256
   spares=2
ARRAY /dev/md/1  metadata=1.0 UUID=96f80125:d6255336:1880ae95:1521d006 name=1
ARRAY /dev/md/13  metadata=1.0 UUID=f8bc74e4:2fc165fd:f5591872:e23a5f58 name=13
ARRAY /dev/md/322  metadata=1.0 UUID=50040ff0:05773fed:642285e1:c7753b55 name=322
   spares=2
Szczegóły:
Kod:
[/mnt] # mdadm --detail /dev/md1
/dev/md1:
        Version : 1.0
  Creation Time : Tue Sep 20 03:49:59 2016
     Raid Level : raid5
     Array Size : 11691190272 (11149.59 GiB 11971.78 GB)
  Used Dev Size : 3897063424 (3716.53 GiB 3990.59 GB)
   Raid Devices : 4
  Total Devices : 4
    Persistence : Superblock is persistent

    Update Time : Mon Jan  1 14:21:48 2018
          State : clean 
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 512K

           Name : 1
           UUID : 96f80125:d6255336:1880ae95:1521d006
         Events : 872

    Number   Major   Minor   RaidDevice State
       0       8        3        0      active sync   /dev/sda3
       1       8       19        1      active sync   /dev/sdb3
       2       8       35        2      active sync   /dev/sdc3
       3       8       51        3      active sync   /dev/sdd3
Zmagania ciąg dalszy ...
Zmieniłem tylko device na /dev/md0
Kod:
[/share] # cat /proc/mdstat
[/share] # mdadm --assemble /dev/md0 /dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3
[/share] # cat /proc/mdstat
[/share] # mdadm --detail /dev/md0
Próba montowania z różnymi typami partycji (bo nie pamiętam co było):
Kod:
[/share] # mount -t ext4 /dev/md0 /share/recovery
mount: wrong fs type, bad option, bad superblock on /dev/md0,
       missing codepage or other error
       In some cases useful info is found in syslog - try
       dmesg | tail  or so
[/share] # mount -t ext3 /dev/md0 /share/recovery
mount: wrong fs type, bad option, bad superblock on /dev/md0,
       missing codepage or other error
       In some cases useful info is found in syslog - try
       dmesg | tail  or so
[/share] # mount -t ext2 /dev/md0 /share/recovery
mount: wrong fs type, bad option, bad superblock on /dev/md0,
       missing codepage or other error
       In some cases useful info is found in syslog - try
       dmesg | tail  or so
bez powodzenia, ale to tak jak wczoraj pisałem, było tak samo.
Co nowego sprawdzamy ...
Standardowo sprawdzanie partycji:
Kod:
[/share] # e2fsck -n /dev/md0
e2fsck 1.42.13 (17-May-2015)
ext2fs_open2: Bad magic number in super-block
e2fsck: Superblock invalid, trying backup blocks...
e2fsck: Bad magic number in super-block while trying to open /dev/md0

The superblock could not be read or does not describe a valid ext2/ext3/ext4
filesystem.  If the device is valid and it really contains an ext2/ext3/ext4
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
    e2fsck -b 8193 <device>
 or
    e2fsck -b 32768 <device>

[/share] #
Kombinowałem z super-block i e2fsck -b ... ale to nic nie dało
Znalazłem w przepastnych zasobach internetu o użyciu mke2fs
-n
Causes mke2fs to not actually create a filesystem, but display what it would do if it were to create a filesystem. This can be used to determine the location of the backup superblocks for a particular filesystem, so long as the mke2fs parameters that were passed when the filesystem was originally created are used again. (With the -n option added, of course!)
No to do dzieła
Kod:
[/share] # mke2fs -n /dev/md0
mke2fs 1.42.13 (17-May-2015)
/dev/md0 contains a LVM2_member file system
Proceed anyway? (y,n) y
Creating filesystem with 2922797568 4k blocks and 182675456 inodes
Filesystem UUID: 0e05632f-f561-45de-aab5-520de6856e0e
Superblock backups stored on blocks: 
	32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 
	4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968, 
	102400000, 214990848, 512000000, 550731776, 644972544, 1934917632, 
	2560000000
I tu zapaliła mi się lampka z magicznym słowem LVM2 *-:)

Kod:
[/share] # dd if=/dev/md0 bs=512 count=255 skip=1 of=/tmp/md0-raw-start
255+0 records in
255+0 records out
130560 bytes (127.5KB) copied, 0.016678 seconds, 7.5MB/s

[/share] # vi /tmp/md0-raw-start
Kod:
LABELONE^A^@^@^@^@^@^@^@u.^Z; ^@^@^@LVM2 001wu8pyPq2ubNCgFLZaKEM2vmaLorINgmw^@poe.
^@^@^@^@^X^@^@^@^@^@^@^@^@^@^@^@^@^@^@^@^@^@^@^@^@^@^@^@^@^@^@^@^@^@^@^P^@^@^@^@^@^@^@.^W^@^@^@^@^@^@^@^@^@^@^@^@^@^@
id = "AmnfVb-LuCO-IDTt-uH2a-xpg9-xK0Z-oyupoo"
seqno = 1
format = "lvm2" # informational
status = ["RESIZEABLE", "READ", "WRITE"]
flags = []
extent_size = 8192
max_lv = 0
max_pv = 0
metadata_copies = 0

physical_volumes {

pv0 {
id = "wu8pyP-q2ub-NCgF-LZaK-EM2v-maLo-rINgmw"
device = "/dev/drbd1"

status = ["ALLOCATABLE"]
flags = []
dev_size = 23382374328
pe_start = 3072
pe_count = 2854293
}
}

}
# Generated by LVM2 version 2.02.105(2) (2014-01-20): Tue Sep 20 02:50:02 2016

contents = "Text Format Volume Group"
version = 1

description = ""

creation_host = "NASFAABA9"     # Linux NASFAABA9 3.19.8+ #1 SMP Thu Nov 12 08:08:41 CST 2015 x86_64
creation_time = 1474336202      # Tue Sep 20 02:50:02 2016
...
Kod:
[/share] # vgscan                                                                                                  
  Reading all physical volumes.  This may take a while...
  Found volume group "vg1" using metadata type lvm2
[/share] #

Kod:
[/share] # pvscan
  PV /dev/md0   VG vg1             lvm2 [10.89 TiB / 0    free]
  Total: 1 [10.89 TiB] / in use: 1 [10.89 TiB] / in no VG: 0 [0   ]
[/share] #

Kod:
[/share] # vgchange vg1 -a y
  7 logical volume(s) in volume group "vg1" now active

Kod:
[/share] # lvscan
  ACTIVE            '/dev/vg1/lv544' [111.49 GiB] inherit
  ACTIVE            '/dev/vg1/tp1' [10.72 TiB] inherit
  ACTIVE            '/dev/vg1/lv1' [7.00 TiB] inherit
  ACTIVE            '/dev/vg1/lv2' [2.08 TiB] inherit
  ACTIVE            '/dev/vg1/snap20001' [2.08 TiB] inherit
  ACTIVE            '/dev/vg1/snap20002' [2.08 TiB] inherit
  ACTIVE            '/dev/vg1/snap20003' [2.08 TiB] inherit
[/share] #

Kod:
[/share] # cd /share
[/share] # mkdir recovery
[/share] # mount -t ext4 /dev/vg1/lv1 /share/recovery
[/share] # cd /share/recovery/
[/share/recovery] # ls -la
total 208
drwxrwxrwx  38 admin administrators  4096 Jun 27  2017 ./
drwxrwxrwt  30 admin administrators   820 Jan  6 09:20 ../
drwxr-xr-x   2 admin administrators  4096 Dec 30 17:48 .@analytic/
drwxr-xr-x   2 admin administrators  4096 Dec  6 03:04 .@backup_config/
drwxr-xr-x   2 admin administrators  4096 Dec  6 03:04 .@backup_qbox/
drwx------   4 admin administrators  4096 Sep 20  2016 .@qHAsync/
drwxr-xr-x   4 admin administrators  4096 Sep 20  2016 .@qmariadb/
drwx------   2 admin administrators  4096 Jan  1 14:19 .@qmonitor/
drwx------   5 admin administrators  4096 Oct  4  2016 .@qsync/
drwxr-xr-x   6 admin administrators  4096 Sep 21  2016 .antivirus/
drwxr-xr-x   3 admin administrators  4096 Sep 19  2016 .appDB/
drwxr-xr-x   2 admin administrators  4096 Sep 23  2016 .idmap/
drwxr-xr-x   2 admin administrators  4096 Sep 20  2016 .ldapdb/
drwxr-xr-x   2 admin administrators  4096 Dec 30 17:46 .locks/
drwxr-xr-x   2 admin administrators  4096 Sep 20  2016 .log/
drwxrwxrwx   2 admin administrators  4096 Aug  1 20:12 .php_session/
drwxr-xr-x   2 admin administrators  4096 Dec  7 11:06 .php_session_sys/
drwxr-xr-x   3 admin administrators  4096 Sep 21  2016 .qbox/
drwxrwxrwx  26 admin administrators  4096 Dec 30 17:47 .qpkg/
drwxr-xr-x   4 admin administrators  4096 Jan  1 14:20 .samba/
drwxrwxrwx   5 admin administrators  4096 Dec 30 17:46 .spool/
d---------   2 admin administrators  4096 Jan  1 14:21 .swap/
drwxr-xr-x  10 admin administrators  4096 Dec 28 00:00 .system/
drwxrwxrwx   3 admin administrators  4096 May 14  2017 .team_folder/
drwxrwxrwx   6 admin administrators  4096 Dec 30 20:31 .timemachine/
drwxrwxrwx   2 admin administrators  4096 Apr 14  2017 .tmp/
drwxr-xr-x   3 admin administrators  4096 Nov 15 15:38 .torrent/
drwxrwxrwx   2 admin administrators  4096 Sep 19  2016 .versioning/
drwxrwxrwx   7 admin administrators  4096 Dec 30 17:54 Download/
drwxrwxrwx   7 admin administrators  4096 Dec 30 17:54 Multimedia/
drwxrwxrwx 174 admin administrators  4096 Dec 30 17:54 Music/
drwxrwxrwx   4 admin administrators  4096 Dec 30 17:54 OceanKTV/
drwxrwxrwx   5 admin administrators  4096 Dec 30 17:54 Public/
drwxrwxrwx   5 admin administrators  4096 Dec 30 17:54 Recordings/
drwxrwxrwx  16 admin administrators  4096 Dec 30 22:52 Video/
drwxrwxrwx   5 admin administrators  4096 Dec 30 17:54 Web/
-rw-------   1 admin administrators  7168 Sep 22  2016 aquota.user
drwxrwxrwx   8 admin administrators  4096 Dec 30 17:54 homes/
drwx------   2 admin administrators 16384 Sep 20  2016 lost+found/
[/share/recovery] #

Dostałem się do danych !!!!:D
Nie mam pojęcia czemu system zgubił wszystkie ustawienia LVM, RAID
Może się komuś przyda.
 

Użytkownicy znaleźli tą stronę używając tych słów:

  1. samba raid error
  2. niebieski ekran