Pomoc Utrata danych

Moyrez

System Engineer
Q Specialist
8 Wrzesień 2013
142
24
18
Kraków
QNAP
TS-x51
Ethernet
1 GbE
Ratujcie !!! Ostatnio to jakaś czarna seria dopadła mojego Qnap'a. Problem tym razem wydaje się poważny bo utraciłem wszystkie foldery współdzielone, gdzie miałem wszystkie swoje dane (Multimedia i wszystkie w nim podfoldery a także, Download, Public itp.) Dostaje komunikat w ostrzeżeniach, że domyślne foldery dzielone nie istnieją i należy je odtworzyć bądź sformatować dysk. Podziało się to po nieoczekiwanym restarcie, gdy miałem uruchomiony backup danych w TimeMachine oraz kopiowanie danych na dysk USB. Po tym restarcie włączył się samoczynnie proces synchronizacji wolumenu i po jego zakończeniu foldery zniknęły :'(
 
Kod:
/proc on /proc type proc (rw)
devpts on /dev/pts type devpts (rw)
sysfs on /sys type sysfs (rw)
tmpfs on /tmp type tmpfs (rw,size=64M)
none on /proc/bus/usb type usbfs (rw)
/dev/md9 on /mnt/HDA_ROOT type ext3 (rw,data=ordered)
/dev/md1 on /share/MD1_DATA type ext4 (rw,usrjquota=aquota.user,jqfmt=vfsv0,user_xattr,data=ordered,delalloc,noacl)
/dev/md13 on /mnt/ext type ext3 (rw,data=ordered)
tmpfs on /.eaccelerator.tmp type tmpfs (rw,size=32M)
done i co dalej?

A możesz mi zdradzić tak na przyszłość (odpukać) co to się podziało z tym ustrojstwem ?

Wszystkie problemy jak sięgam pamięcią zaczęły się od czasu update do QTS 4.0.5
 
Odłącz i zatrzymaj macierz md1
Bash:
umount /dev/md1            # odmountuj urzadzenie
mdadm -S /dev/md1          # zatrzymaj wolumin macierzy RAID

Złóż macierz RAID na nowo na podstawie urządzeń z poprzedniej konfiguracji (md1 w /proc/mdstat)
Bash:
mdadm --assemble /dev/md0 /dev/sda3 /dev/sdb3

Proces składania macierzy zajmie trochę czasu, a więc nie wykonuj żadnych innych operacji na serwerze oraz nie wyłączaj go. Przebieg procesu będziesz mógł nadzorować mdadm lub z patrząc na status w mdstat
Bash:
mdadm --detail /dev/md0
cat /proc/mdstat

Przyłącz macierz :)
Bash:
mount /dev/md0 /share/MD0_DATA
Jak status?
 
  • Lubię to
Reakcje: kaktus
Nie! Tak się nie dowiemy co było przyczyną.

Logi znajdują się na woluminie MD1.
Dlatego po ponownym przyłączeniu macierzy, wgraj QNAP Diagnostic Tool i wygeneruj dumpy. Zresetuj serwer NAS i po ponownym uruchomieniu wygeneruj dumpy drugi raz. Oba zrzuty logów wrzuć w załącznik...Jak status? Pamiętaj, że jest jeszcze QNAP Live Support, który zdalnie może naprawić Twój problem - a właściwie z tego co się dowiedziałem zrobić właśnie to co Ci napisałem :)
 
  • Lubię to
Reakcje: kaktus
Nic mi o tym nie wiadomo. Do czasu az zrobilem update do 4.0.5 wszystko chodzilo cacy a potem sie zaczelo od tego poprzedniego problemu jak nie można było odłączyć dysku do przeskanowania a wczoraj te zaginione dane.
 
Poleciał proces składania macierzy. Zapuściłem też te dwa polecenia do sprawdzania statusy z tym, że nie wiem, w którym miejscu pokazuje ile jeszcze zostało do końca.
Tu jest to co wypluł system:
Kod:
# mdadm --detail /dev/md0
/dev/md0:
        Version : 1.0
  Creation Time : Fri Sep 27 18:35:39 2013
    Raid Level : raid1
    Array Size : 2928697536 (2793.02 GiB 2998.99 GB)
  Used Dev Size : 2928697536 (2793.02 GiB 2998.99 GB)
  Raid Devices : 2
  Total Devices : 2
    Persistence : Superblock is persistent

    Update Time : Sat Nov 23 19:00:58 2013
          State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
  Spare Devices : 0

          Name : 1
          UUID : 68adc8c3:a5b9b074:0c96302c:a9754530
        Events : 26274

    Number  Major  Minor  RaidDevice State
      2      8        3        0      active sync  /dev/sda3
      1      8      19        1      active sync  /dev/sdb3

# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md0 : active raid1 sda3[2] sdb3[1]
      2928697536 blocks super 1.0 [2/2] [UU]
     
md256 : active raid1 sdb2[1] sda2[0]
      530112 blocks super 1.0 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md13 : active raid1 sda4[0] sdb4[1]
      458880 blocks [2/2] [UU]
      bitmap: 0/57 pages [0KB], 4KB chunk

md9 : active raid1 sda1[0] sdb1[1]
      530048 blocks [2/2] [UU]
      bitmap: 0/65 pages [0KB], 4KB chunk

unused devices: <none>
 
Ostatnio edytowane:
to mamy jakiegoś liptona...
Kod:
# mount /dev/md0 /share/MD0_DATA
mount: wrong fs type, bad option, bad superblock on /dev/md0,
      missing codepage or other error
      In some cases useful info is found in syslog - try
      dmesg | tail  or so

Dodatkowo obawiam się, że wszystkie dane poszły... siną w dal bo pod sftp ani pod md0_data ani pod md1_data nic nie ma :'(
 
Ostatnio edytowane:
..i po mount:
Kod:
# mount /dev/md0 /share/MD0_DATA
mount: wrong fs type, bad option, bad superblock on /dev/md0,
      missing codepage or other error
      In some cases useful info is found in syslog - try
      dmesg | tail  or so
 

Użytkownicy znaleźli tą stronę używając tych słów:

  1. error loading journal
  2. utrata danych
  3. raid10
  4. jak zamontować system plików