Pomoc Odmontowany Volumin

Prez

Nowy użytkownik
Noobie
5 Październik 2023
5
0
1
47
QNAP
TS-x31P2
Ethernet
100 Mbps
Cześć wszystkim widzę że na forum problem się już powtarzał i większość radzi napisać do Helpdesk QNAP'a, ale jednak spróbuję wpierw tutaj. Ostatnio zrobiłem sobie "krzywdę" chcąc odbudować macierz zdegradowaną z uwagi na błędy na dyskach.
Generalnie nie będę się rozpisywał za bardzo odbudowa się nie powiodła próbowałem kilka razy żonguląc dyskami, no i odmontował mi się volumin. Oczywiście próba zamontowana za pomocą Qnapa sprawdzenia systemu plików i próba z linni poleceń za pomocą putty rówwnież nie próbowałe już tego:
Bash:
/etc/init.d/services.sh stop
/etc/init.d/opentftp.sh stop
/etc/init.d/Qthttpd.sh stop
umount /dev/md0
e2fsck -f -v -C 0 /dev/md0
mount /dev/md0
reboot
Wyskakuje znany komunikat:

Kod:
/dev/md1 is in use.
e2fsck: Cannot continue, aborting.
MD_checker pokazuje natomiast to:
Kod:
RAID metadata found!
UUID:           49300c7d:bf3fa975:eb198b5b:dde27b41
Level:          raid1
Devices:        2
Name:           md1
Chunk Size:     -
md Version:     1.0
Creation Time:  Jul 31 12:26:48 2022
Status:         ONLINE (md1) [U_]
===============================================================================================
 Enclosure | Port | Block Dev Name | # | Status |   Last Update Time   | Events | Array State
===============================================================================================
 NAS_HOST       1        /dev/sda3   0   Active   Oct  5 12:33:22 2023   193288   A.
 ----------------------------------  1  Missing   -------------------------------------------
===============================================================================================
Polecenie fdisk -l pokazuje to:
Kod:
Disk /dev/sda: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1               1      121602   976762583+  ee  EFI GPT

Disk /dev/md9: 542 MB, 542769152 bytes
2 heads, 4 sectors/track, 132512 cylinders
Units = cylinders of 8 * 512 = 4096 bytes

Disk /dev/md9 doesn't contain a valid partition table

Disk /dev/md13: 469 MB, 469893120 bytes
2 heads, 4 sectors/track, 114720 cylinders
Units = cylinders of 8 * 512 = 4096 bytes

Disk /dev/md13 doesn't contain a valid partition table

Disk /dev/md256: 542 MB, 542834688 bytes
2 heads, 4 sectors/track, 132528 cylinders
Units = cylinders of 8 * 512 = 4096 bytes

Disk /dev/md256 doesn't contain a valid partition table

Disk /dev/md322: 6863 MB, 6863519744 bytes
2 heads, 4 sectors/track, 1675664 cylinders
Units = cylinders of 8 * 512 = 4096 bytes

Disk /dev/md322 doesn't contain a valid partition table

Disk /dev/md1: 990.0 GB, 990002741248 bytes
2 heads, 4 sectors/track, 241699888 cylinders
Units = cylinders of 8 * 512 = 4096 bytes

Moo
Disk /dev/md1 doesn't contain a valid partition table

Disk /dev/dm-0: 96 MB, 96468992 bytes
255 heads, 63 sectors/track, 11 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Disk /dev/dm-0 doesn't contain a valid partition table
Cóż jestem za cienki w tym temaci może ktoś z was coś z tego wychwyci i poradzi coś. Tak naprawdę chdzi mi o odzyskanie jednego katalogu killadziesiąt giga danych.
Będę wdzięczny za pomoc.
 
Nie wiem skąd wziąłeś te polecenia, ale mowa jest o md1 a nie o md0
po pierwsze sprawdzasz, którego raid problem dotyczy:
Bash:
md_checker
i jeśli, któreś dyski wypadłu no to trzeba je dodac mdadm'em:
Bash:
qcli_storage -d
- tak sie listuje dyski

dyski do RAID można dodać jesli np. problem dotyczy md1:
Bash:
mdadm /dev/md1 --add /dev/sda3
zawsze partycja 3 - czyli jak w powyzszym przypadku /dev/sda3 - natomiast czy to bedzie sda, czy sdb, czy sdc to decyduje o tym polecenie qcli_storage

generalnei sprawy RAID nie są proste.... QNAP ma dedykowany dział od napraw tego...
Ty poległeś w rozpoznaniu md0 i md1 - więc nie radziłbym na własną rękę
 
Poległem i to podwójnie :) bo wklepałem na szybko w zapytaniu tu na forum oryginalne polecenie z md0, które znalazłem w necie.
Oczywiście w linii poleceń Putty podawałem md1, a nie md0, bo tyle zdążyłem zauważyć. Nie zależy mi już na pełnej odbudowie tego RAIDU 1 może być zdegradowany może być na 1 dysku, byle pojawiły się folder, które od razu sobie przekopiuje, a potem postawę nową macierz na już nowych dyskach 2TB.

qcli_storage -d pokazuje to:

Enclosure Port Sys_Name Type Size Alias Signatu re Partitions Model
NAS_HOST 1 /dev/sda HDD:data 931.51 GB 3.5" SATA HDD 1 QNAP FL EX 5 Seagate ST1000DM003-9YN162
 
Tak obecnie jest tylko jeden dysk zamontowany drugi wyjąłem. Na wszelki wypadek, zresztą jak były w QNAP:ie 2 to macierz również była odmontowana i zdegradowana. Wole testować różne rozwiązania na jednym drugi mając w zapasie jak coś sknocę.
 
Dzięki za instrukcję. Tutaj muszę słowo wyjaśnienia. Moje założenie było takie, że robię zmiany na 1 dysku, bo na drugim wcześniej już coś grzebałem z marnym skutkiem i pozmieniałem, no i teraz jak go dołożę to boję się, że mi synchronizuje się razem ze swoimi błędami i nadpisze na ten pierwszy ?
 
Chyba namieszałem, bo teraz nawet nie mogę zalogować się do QNAP'a jest cały czas loading...

[~] # qcli_storage -d
Enclosure Port Sys_Name Type Size Alias Signatu re Partitions Model
NAS_HOST 1 /dev/sda HDD:data 931.51 GB 3.5" SATA HDD 1 QNAP FL EX 5 Seagate ST1000DM003-9YN162
NAS_HOST 2 /dev/sdb HDD:data 931.51 GB 3.5" SATA HDD 2 QNAP FL EX 5 Seagate ST1000DM003-9YN162
--------------------------------------------------------------------------------------------------------------
[~] # storage_util --sys_startup
Detect disk(3866772480, 8)...
dev_count ++ = 0
Detect disk(3866772480, 8)...
dev_count ++ = 1
Detect disk(3866772480, 252)...
ignore non-root enclosure disk(13, 252).
Detect disk(3866772480, 8)...
Detect disk(3866772480, 8)...
Detect disk(3866772480, 252)...
ignore non-root enclosure disk(13, 252).
error opening given file name: No such file or directory
------------------------------------------------------------------------------------------------------
[~] # mdadm -D /dev/md13
/dev/md13:
Version : 1.0
Creation Time : Sun Mar 22 15:05:49 2020
Raid Level : raid1
Array Size : 458880 (448.13 MiB 469.89 MB)
Used Dev Size : 458880 (448.13 MiB 469.89 MB)
Raid Devices : 32
Total Devices : 2
Persistence : Superblock is persistent

Intent Bitmap : Internal

Update Time : Tue Oct 17 11:29:42 2023
State : clean, degraded
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0

Name : 13
UUID : 67623911:b3cdf9f1:39267290:7096cc73
Events : 348444

Number Major Minor RaidDevice State
32 8 20 0 active sync /dev/sdb4
33 8 4 1 active sync /dev/sda4
4 0 0 4 removed
6 0 0 6 removed
8 0 0 8 removed
10 0 0 10 removed
12 0 0 12 removed
14 0 0 14 removed
16 0 0 16 removed
18 0 0 18 removed
20 0 0 20 removed
22 0 0 22 removed
24 0 0 24 removed
26 0 0 26 removed
28 0 0 28 removed
30 0 0 30 removed
32 0 0 32 removed
34 0 0 34 removed
36 0 0 36 removed
38 0 0 38 removed
40 0 0 40 removed
42 0 0 42 removed
44 0 0 44 removed
46 0 0 46 removed
48 0 0 48 removed
50 0 0 50 removed
52 0 0 52 removed
54 0 0 54 removed
56 0 0 56 removed
58 0 0 58 removed
60 0 0 60 removed
62 0 0 62 removed
-----------------------------------------------------------------------------------------------------------------------------------------
[~] # mdadm -D /dev/md9
/dev/md9:
Version : 1.0
Creation Time : Sun Mar 22 15:04:50 2020
Raid Level : raid1
Array Size : 530048 (517.63 MiB 542.77 MB)
Used Dev Size : 530048 (517.63 MiB 542.77 MB)
Raid Devices : 32
Total Devices : 2
Persistence : Superblock is persistent

Intent Bitmap : Internal

Update Time : Tue Oct 17 11:47:07 2023
State : clean, degraded
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0

Name : 9
UUID : 03703140:311eefb9:ab3cda71:25ffe234
Events : 5584471

Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 1 1 active sync /dev/sda1
4 0 0 4 removed
6 0 0 6 removed
8 0 0 8 removed
10 0 0 10 removed
12 0 0 12 removed
14 0 0 14 removed
16 0 0 16 removed
18 0 0 18 removed
20 0 0 20 removed
22 0 0 22 removed
24 0 0 24 removed
26 0 0 26 removed
28 0 0 28 removed
30 0 0 30 removed
32 0 0 32 removed
34 0 0 34 removed
36 0 0 36 removed
38 0 0 38 removed
40 0 0 40 removed
42 0 0 42 removed
44 0 0 44 removed
46 0 0 46 removed
48 0 0 48 removed
50 0 0 50 removed
52 0 0 52 removed
54 0 0 54 removed
56 0 0 56 removed
58 0 0 58 removed
60 0 0 60 removed
62 0 0 62 removed
---------------------------------------------------------------------------------------------------------------------------------------------
[~] # /mnt/HDA_ROOT
-sh: /mnt/HDA_ROOT: is a directory
---------------------------------------------------------------------------------------------------------------------------------------------
[~] # mount | grep /dev/md
/dev/md9 on /mnt/HDA_ROOT type ext4 (rw,data=ordered,barrier=1,nodelalloc)
/dev/md13 on /mnt/ext type ext4 (rw,data=ordered,barrier=1,nodelalloc)
 

Użytkownicy znaleźli tą stronę używając tych słów:

  1. odmontowany
  2. code 22
  3. ts-212 odzyskanie
  4. md_checker
  5. system na m2