Cześć,
Mam Qnapa TS-569 Pro. W menedżerze Qnap (tym zarządzanym przez www) mam pokazane, że pamięć dyskowa jest zajęta w 67%, ostrzeżenie mam ustawione na 80%. Qnap zgłasza błąd, że dyski są zapełnione oraz błąd typu "Pool error". Macierz ma włożone 5 dysków twardych, który każdy z nich jest o pojemności 3TB
Przeczytałem dużo wątków z których nic nie wynika, postanowiłem tutaj założyć konto, bo może ktoś naprowadzi mnie na rozwiązanie problemu.
Podłączyłem się za pomocą putty do qnapa i wpisałem polecenie którego wynik jest jak niżej.
chciałbym się dostać do dysków tj. zamontować je i w razie potrzeby zwolnić miejsce oraz przywrócić macierz do poprawnego działania.
Dodam, że nigdy nie miałem styczności z macierzami, więc nie mam za bardzo rozeznania co i jak trzeba zrobić, ta macierz już była gdy tu przyszedłem. Proszę o jakieś podpowiedzi które pomogą rozwiązać mi problem.
Czy znajdą się chętni którzy pomogą rozwiązać problem ?
Dzięki wszystkim za "pomoc" i "aktywny" odezw - mój problem rozwiązał serwis.
Mam Qnapa TS-569 Pro. W menedżerze Qnap (tym zarządzanym przez www) mam pokazane, że pamięć dyskowa jest zajęta w 67%, ostrzeżenie mam ustawione na 80%. Qnap zgłasza błąd, że dyski są zapełnione oraz błąd typu "Pool error". Macierz ma włożone 5 dysków twardych, który każdy z nich jest o pojemności 3TB
Przeczytałem dużo wątków z których nic nie wynika, postanowiłem tutaj założyć konto, bo może ktoś naprowadzi mnie na rozwiązanie problemu.
Podłączyłem się za pomocą putty do qnapa i wpisałem polecenie którego wynik jest jak niżej.
Kod:
[~] # fdisk -l
Disk /dev/sda: 3000.5 GB, 3000592982016 bytes
255 heads, 63 sectors/track, 364801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sda1 1 267350 2147483647+ ee EFI GPT
Disk /dev/sdb: 3000.5 GB, 3000592982016 bytes
255 heads, 63 sectors/track, 364801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdb1 1 267350 2147483647+ ee EFI GPT
Disk /dev/sdc: 3000.5 GB, 3000592982016 bytes
255 heads, 63 sectors/track, 364801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdc1 1 267350 2147483647+ ee EFI GPT
Disk /dev/sdd: 3000.5 GB, 3000592982016 bytes
255 heads, 63 sectors/track, 364801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdd1 1 267350 2147483647+ ee EFI GPT
Disk /dev/sde: 3000.5 GB, 3000592982016 bytes
255 heads, 63 sectors/track, 364801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sde1 1 267350 2147483647+ ee EFI GPT
Disk /dev/sdf: 515 MB, 515899392 bytes
8 heads, 32 sectors/track, 3936 cylinders
Units = cylinders of 256 * 512 = 131072 bytes
Device Boot Start End Blocks Id System
/dev/sdf1 1 17 2160 83 Linux
/dev/sdf2 * 18 1910 242304 83 Linux
/dev/sdf3 1911 3803 242304 83 Linux
/dev/sdf4 3804 3936 17024 5 Extended
/dev/sdf5 3804 3868 8304 83 Linux
/dev/sdf6 3869 3936 8688 83 Linux
Disk /dev/md9: 542 MB, 542769152 bytes
2 heads, 4 sectors/track, 132512 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Disk /dev/md9 doesn't contain a valid partition table
Disk /dev/md13: 469 MB, 469893120 bytes
2 heads, 4 sectors/track, 114720 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Disk /dev/md13 doesn't contain a valid partition table
Disk /dev/md256: 542 MB, 542834688 bytes
2 heads, 4 sectors/track, 132528 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Disk /dev/md256 doesn't contain a valid partition table
Disk /dev/md322: 7408 MB, 7408779264 bytes
2 heads, 4 sectors/track, 1808784 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Disk /dev/md322 doesn't contain a valid partition table
Kod:
[~] # md_checker
Welcome to MD superblock checker (v1.4) - have a nice day~
Scanning system...
HAL firmware detected!
Scanning Enclosure 0...
RAID metadata found!
UUID: c7fb0dc2:30d071ea:9b97b5b0:ff29c11a
Level: raid5
Devices: 5
Name: md1
Chunk Size: 64K
md Version: 1.0
Creation Time: Dec 4 11:00:14 2017
Status: OFFLINE
===============================================================================
Disk | Device | # | Status | Last Update Time | Events | Array State
===============================================================================
1 /dev/sda3 0 Active Sep 16 22:22:33 2019 153 AAAAA
2 /dev/sdb3 1 Active Sep 16 23:00:09 2019 153 AA.AA
3 /dev/sdc3 2 Active Sep 16 21:33:31 2019 153 AAAAA
4 /dev/sdd3 3 Active Sep 16 21:45:41 2019 38 AA.AA
5 /dev/sde3 4 Active Sep 16 22:48:39 2019 77 AA.AA
===============================================================================
Kod:
[~] # cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md322 : active raid1 sde5[4](S) sdd5[3](S) sdc5[2](S) sdb5[1] sda5[0]
7235136 blocks super 1.0 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md256 : active raid1 sde2[4](S) sdd2[3](S) sdc2[2](S) sdb2[1] sda2[0]
530112 blocks super 1.0 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md13 : active raid1 sda4[0] sde4[4] sdd4[3] sdc4[2] sdb4[1]
458880 blocks super 1.0 [32/5] [UUUUU___________________________]
bitmap: 1/1 pages [4KB], 65536KB chunk
md9 : active raid1 sda1[0] sde1[4] sdd1[3] sdc1[2] sdb1[1]
530048 blocks super 1.0 [32/5] [UUUUU___________________________]
bitmap: 1/1 pages [4KB], 65536KB chunk
unused devices: <none>
chciałbym się dostać do dysków tj. zamontować je i w razie potrzeby zwolnić miejsce oraz przywrócić macierz do poprawnego działania.
Dodam, że nigdy nie miałem styczności z macierzami, więc nie mam za bardzo rozeznania co i jak trzeba zrobić, ta macierz już była gdy tu przyszedłem. Proszę o jakieś podpowiedzi które pomogą rozwiązać mi problem.
Czy znajdą się chętni którzy pomogą rozwiązać problem ?
Dzięki wszystkim za "pomoc" i "aktywny" odezw - mój problem rozwiązał serwis.