Pomoc Qnap-TS-569 Pro - zapełnione dyski i brak połączenia

Status
Brak możliwości dodawania odpowiedzi.

zkubinski

Nowy użytkownik
Noobie
19 Wrzesień 2019
1
0
1
43
QNAP
null
Ethernet
100 Mbps
Cześć,
Mam Qnapa TS-569 Pro. W menedżerze Qnap (tym zarządzanym przez www) mam pokazane, że pamięć dyskowa jest zajęta w 67%, ostrzeżenie mam ustawione na 80%. Qnap zgłasza błąd, że dyski są zapełnione oraz błąd typu "Pool error". Macierz ma włożone 5 dysków twardych, który każdy z nich jest o pojemności 3TB

Przeczytałem dużo wątków z których nic nie wynika, postanowiłem tutaj założyć konto, bo może ktoś naprowadzi mnie na rozwiązanie problemu.

Podłączyłem się za pomocą putty do qnapa i wpisałem polecenie którego wynik jest jak niżej.

Kod:
[~] # fdisk -l

Disk /dev/sda: 3000.5 GB, 3000592982016 bytes
255 heads, 63 sectors/track, 364801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

  Device Boot      Start        End      Blocks  Id  System
/dev/sda1              1      267350  2147483647+  ee  EFI GPT

Disk /dev/sdb: 3000.5 GB, 3000592982016 bytes
255 heads, 63 sectors/track, 364801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

  Device Boot      Start        End      Blocks  Id  System
/dev/sdb1              1      267350  2147483647+  ee  EFI GPT

Disk /dev/sdc: 3000.5 GB, 3000592982016 bytes
255 heads, 63 sectors/track, 364801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

  Device Boot      Start        End      Blocks  Id  System
/dev/sdc1              1      267350  2147483647+  ee  EFI GPT

Disk /dev/sdd: 3000.5 GB, 3000592982016 bytes
255 heads, 63 sectors/track, 364801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

  Device Boot      Start        End      Blocks  Id  System
/dev/sdd1              1      267350  2147483647+  ee  EFI GPT

Disk /dev/sde: 3000.5 GB, 3000592982016 bytes
255 heads, 63 sectors/track, 364801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

  Device Boot      Start        End      Blocks  Id  System
/dev/sde1              1      267350  2147483647+  ee  EFI GPT

Disk /dev/sdf: 515 MB, 515899392 bytes
8 heads, 32 sectors/track, 3936 cylinders
Units = cylinders of 256 * 512 = 131072 bytes

  Device Boot      Start        End      Blocks  Id  System
/dev/sdf1              1          17        2160  83  Linux
/dev/sdf2  *          18        1910      242304  83  Linux
/dev/sdf3            1911        3803      242304  83  Linux
/dev/sdf4            3804        3936      17024    5  Extended
/dev/sdf5            3804        3868        8304  83  Linux
/dev/sdf6            3869        3936        8688  83  Linux

Disk /dev/md9: 542 MB, 542769152 bytes
2 heads, 4 sectors/track, 132512 cylinders
Units = cylinders of 8 * 512 = 4096 bytes

Disk /dev/md9 doesn't contain a valid partition table

Disk /dev/md13: 469 MB, 469893120 bytes
2 heads, 4 sectors/track, 114720 cylinders
Units = cylinders of 8 * 512 = 4096 bytes

Disk /dev/md13 doesn't contain a valid partition table

Disk /dev/md256: 542 MB, 542834688 bytes
2 heads, 4 sectors/track, 132528 cylinders
Units = cylinders of 8 * 512 = 4096 bytes

Disk /dev/md256 doesn't contain a valid partition table

Disk /dev/md322: 7408 MB, 7408779264 bytes
2 heads, 4 sectors/track, 1808784 cylinders
Units = cylinders of 8 * 512 = 4096 bytes

Disk /dev/md322 doesn't contain a valid partition table

Kod:
[~] # md_checker

Welcome to MD superblock checker (v1.4) - have a nice day~

Scanning system...

HAL firmware detected!
Scanning Enclosure 0...

RAID metadata found!
UUID:          c7fb0dc2:30d071ea:9b97b5b0:ff29c11a
Level:          raid5
Devices:        5
Name:          md1
Chunk Size:    64K
md Version:    1.0
Creation Time:  Dec 4 11:00:14 2017
Status:        OFFLINE
===============================================================================
Disk | Device | # | Status |  Last Update Time  | Events | Array State
===============================================================================
  1  /dev/sda3  0  Active  Sep 16 22:22:33 2019      153  AAAAA
  2  /dev/sdb3  1  Active  Sep 16 23:00:09 2019      153  AA.AA
  3  /dev/sdc3  2  Active  Sep 16 21:33:31 2019      153  AAAAA
  4  /dev/sdd3  3  Active  Sep 16 21:45:41 2019      38  AA.AA
  5  /dev/sde3  4  Active  Sep 16 22:48:39 2019      77  AA.AA
===============================================================================

Kod:
[~] # cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md322 : active raid1 sde5[4](S) sdd5[3](S) sdc5[2](S) sdb5[1] sda5[0]
                7235136 blocks super 1.0 [2/2] [UU]
                bitmap: 0/1 pages [0KB], 65536KB chunk

md256 : active raid1 sde2[4](S) sdd2[3](S) sdc2[2](S) sdb2[1] sda2[0]
                530112 blocks super 1.0 [2/2] [UU]
                bitmap: 0/1 pages [0KB], 65536KB chunk

md13 : active raid1 sda4[0] sde4[4] sdd4[3] sdc4[2] sdb4[1]
                458880 blocks super 1.0 [32/5] [UUUUU___________________________]
                bitmap: 1/1 pages [4KB], 65536KB chunk

md9 : active raid1 sda1[0] sde1[4] sdd1[3] sdc1[2] sdb1[1]
                530048 blocks super 1.0 [32/5] [UUUUU___________________________]
                bitmap: 1/1 pages [4KB], 65536KB chunk

unused devices: <none>

chciałbym się dostać do dysków tj. zamontować je i w razie potrzeby zwolnić miejsce oraz przywrócić macierz do poprawnego działania.

Dodam, że nigdy nie miałem styczności z macierzami, więc nie mam za bardzo rozeznania co i jak trzeba zrobić, ta macierz już była gdy tu przyszedłem. Proszę o jakieś podpowiedzi które pomogą rozwiązać mi problem.
Czy znajdą się chętni którzy pomogą rozwiązać problem ?
Dzięki wszystkim za "pomoc" i "aktywny" odezw - mój problem rozwiązał serwis.
 
Status
Brak możliwości dodawania odpowiedzi.