Pomoc Wolumin widmo na qnapie ...

Ciangi2

Passing Basics
Beginner
3 Grudzień 2021
13
1
10
3
124
QNAP
TS-x53
Ethernet
100 GbE
Witam,

1669993570401.png



Walczę już nad problemem z supportem, ale długo czasu już to trwa, a rezultatu finalnego jak nie było tak nie ma...

Mianowicie, czy miał ktoś problem z "woluminem widmo" i wie jak się tego pozbyć?

Problem polega na tym, że jak zrestartuje qnapa, na dysku na porcie drugim wskazuje mi error na woluminie i jestem w stanie problem rozwiązać poniższymi komendami:

1669993755951.png

1669993780872.png


Po tych komendach, error z woluminem na dysku znika, i jest full dostęp, natomiast po restarcie qnapa znowu wraca error i musze wpisac te komendy i tak w kolko...

Mysle, ze ten "wolumin widmo" moze odgrywac tutaj tego jakas role:
1669993898966.png



Powiązałem dwa fakty.
1. wolumin, który dostaje error po restarcie qnapa jest na "/dev/md2"
2. w `/etc/volume.conf` mam:

```
(...)

[VOL_2]
volId = 2
volName = DataVol2
raidId = 2
raidName = /dev/md2
encryption = no
ssdCache = no
unclean = no
need_rehash = no
creating = no
mappingName = /dev/mapper/cachedev2
qnapResize = no
delayAlloc = yes
privilege = no
readOnly = no
writeCache = yes
invisible = no
raidLevel = 1
partNo = 3
status = 0
filesystem = 9
internal = 1
time = Fri Dec 2 15:43:04 2022
volType = 1
baseId = 2
baseName = /dev/mapper/cachedev2
inodeRatio = 32768
inodeCount = 241434624
fsFeature = 0x3

[VOL_6]
volId = 6
volName =
raidId = 2
raidName = /dev/md2
encryption = no
mappingName = /dev/md2
qnapResize = no
delayAlloc = yes
privilege = no
readOnly = no
writeCache = yes
invisible = no
raidLevel = 1
partNo = 3
status = -3
filesystem = 18
internal = 1
time = Fri Dec 2 15:43:09 2022
unclean = no
need_rehash = no
creating = no

(...)
```

Wydaje mi się, że ten `VOL_6` to wlasnie ten wolumin widmo, jak usune/zakomentuje to w tym pliku to nic to nie daje bo komenda `/etc/init.d/init_lvm.sh` którą wykonuje do przywrócenia woluminu gdzie jest error nadpisuje z powrotem ten plik konfiguracyjny. Zarówno VOL_6 jak i VOL_2 `mappingName` maja na `/dev/md2`, wiec mozliwe ze tutaj powstaje jakis konflikt i dlatego wywala error?


Zatem:

Czy ktoś spotkał się z podobnym problemem, a jeśli nie to czy wie jak sobie z tym poradzić?


Pozdrawiam