Witam,
Walczę już nad problemem z supportem, ale długo czasu już to trwa, a rezultatu finalnego jak nie było tak nie ma...
Mianowicie, czy miał ktoś problem z "woluminem widmo" i wie jak się tego pozbyć?
Problem polega na tym, że jak zrestartuje qnapa, na dysku na porcie drugim wskazuje mi error na woluminie i jestem w stanie problem rozwiązać poniższymi komendami:
Po tych komendach, error z woluminem na dysku znika, i jest full dostęp, natomiast po restarcie qnapa znowu wraca error i musze wpisac te komendy i tak w kolko...
Mysle, ze ten "wolumin widmo" moze odgrywac tutaj tego jakas role:
Powiązałem dwa fakty.
1. wolumin, który dostaje error po restarcie qnapa jest na "/dev/md2"
2. w `/etc/volume.conf` mam:
```
(...)
[VOL_2]
volId = 2
volName = DataVol2
raidId = 2
raidName = /dev/md2
encryption = no
ssdCache = no
unclean = no
need_rehash = no
creating = no
mappingName = /dev/mapper/cachedev2
qnapResize = no
delayAlloc = yes
privilege = no
readOnly = no
writeCache = yes
invisible = no
raidLevel = 1
partNo = 3
status = 0
filesystem = 9
internal = 1
time = Fri Dec 2 15:43:04 2022
volType = 1
baseId = 2
baseName = /dev/mapper/cachedev2
inodeRatio = 32768
inodeCount = 241434624
fsFeature = 0x3
[VOL_6]
volId = 6
volName =
raidId = 2
raidName = /dev/md2
encryption = no
mappingName = /dev/md2
qnapResize = no
delayAlloc = yes
privilege = no
readOnly = no
writeCache = yes
invisible = no
raidLevel = 1
partNo = 3
status = -3
filesystem = 18
internal = 1
time = Fri Dec 2 15:43:09 2022
unclean = no
need_rehash = no
creating = no
(...)
```
Wydaje mi się, że ten `VOL_6` to wlasnie ten wolumin widmo, jak usune/zakomentuje to w tym pliku to nic to nie daje bo komenda `/etc/init.d/init_lvm.sh` którą wykonuje do przywrócenia woluminu gdzie jest error nadpisuje z powrotem ten plik konfiguracyjny. Zarówno VOL_6 jak i VOL_2 `mappingName` maja na `/dev/md2`, wiec mozliwe ze tutaj powstaje jakis konflikt i dlatego wywala error?
Zatem:
Czy ktoś spotkał się z podobnym problemem, a jeśli nie to czy wie jak sobie z tym poradzić?
Pozdrawiam
Walczę już nad problemem z supportem, ale długo czasu już to trwa, a rezultatu finalnego jak nie było tak nie ma...
Mianowicie, czy miał ktoś problem z "woluminem widmo" i wie jak się tego pozbyć?
Problem polega na tym, że jak zrestartuje qnapa, na dysku na porcie drugim wskazuje mi error na woluminie i jestem w stanie problem rozwiązać poniższymi komendami:
Po tych komendach, error z woluminem na dysku znika, i jest full dostęp, natomiast po restarcie qnapa znowu wraca error i musze wpisac te komendy i tak w kolko...
Mysle, ze ten "wolumin widmo" moze odgrywac tutaj tego jakas role:
Powiązałem dwa fakty.
1. wolumin, który dostaje error po restarcie qnapa jest na "/dev/md2"
2. w `/etc/volume.conf` mam:
```
(...)
[VOL_2]
volId = 2
volName = DataVol2
raidId = 2
raidName = /dev/md2
encryption = no
ssdCache = no
unclean = no
need_rehash = no
creating = no
mappingName = /dev/mapper/cachedev2
qnapResize = no
delayAlloc = yes
privilege = no
readOnly = no
writeCache = yes
invisible = no
raidLevel = 1
partNo = 3
status = 0
filesystem = 9
internal = 1
time = Fri Dec 2 15:43:04 2022
volType = 1
baseId = 2
baseName = /dev/mapper/cachedev2
inodeRatio = 32768
inodeCount = 241434624
fsFeature = 0x3
[VOL_6]
volId = 6
volName =
raidId = 2
raidName = /dev/md2
encryption = no
mappingName = /dev/md2
qnapResize = no
delayAlloc = yes
privilege = no
readOnly = no
writeCache = yes
invisible = no
raidLevel = 1
partNo = 3
status = -3
filesystem = 18
internal = 1
time = Fri Dec 2 15:43:09 2022
unclean = no
need_rehash = no
creating = no
(...)
```
Wydaje mi się, że ten `VOL_6` to wlasnie ten wolumin widmo, jak usune/zakomentuje to w tym pliku to nic to nie daje bo komenda `/etc/init.d/init_lvm.sh` którą wykonuje do przywrócenia woluminu gdzie jest error nadpisuje z powrotem ten plik konfiguracyjny. Zarówno VOL_6 jak i VOL_2 `mappingName` maja na `/dev/md2`, wiec mozliwe ze tutaj powstaje jakis konflikt i dlatego wywala error?
Zatem:
Czy ktoś spotkał się z podobnym problemem, a jeśli nie to czy wie jak sobie z tym poradzić?
Pozdrawiam