Pomoc ramdisk space - The system is unable to save your settings

qiui

System Engineer
Q Specialist
29 Listopad 2013
168
35
28
QNAP
TS-x51+
Ethernet
1 GbE
Od tego roku (2015) zacząłem mieć problemy z ilością pamięci ramdisk. Sytuacja miała miejsce 3 razy i objawiała się błędami w logach systemu:
Kod:
"3068","Error","2015-06-03","23:57:07","System","127.0.0.1","localhost","The system is unable to save your settings (file = [/var/.application.conf], section = [PhotoStation], field = [Enable], value = [FALSE]) due to insufficient ramdisk space. If restarting the server does not solve the problem please contact support for further assistance."
"3067","Error","2015-06-03","23:57:06","System","127.0.0.1","localhost","The system is unable to save your settings (file = [/etc/config/qpkg.conf], section = [PhotoStation], field = [Web_Port], value = [-1]) due to insufficient ramdisk space. If restarting the server does not solve the problem please contact support for further assistance."
"3066","Error","2015-06-03","23:57:05","System","127.0.0.1","localhost","The system is unable to save your settings (file = [/var/.application.conf], section = [MusicStation], field = [Enable], value = [FALSE]) due to insufficient ramdisk space. If restarting the server does not solve the problem please contact support for further assistance."
Tych błędów jest znacznie więcej i co chwilę dochodziły nowe do momentu restartu serwera.

Czy jest możliwość, aby sprawdzić co mi zapycha ramdisk? Czytałem po forum, i jakieś 2 lata temu były podobne problemy, ale radzono wyłączanie kolejnych usług i metodą prób zdiagnozowanie przyczyny. W ten sposób nie chcę tego sprawdzać, bo nie będę wyłączał usług na 2-3 miesiące i czekał czy mi poleci insufficient ramdisk space czy nie.

Aktualnie mam wersję firmware 4.1.3.
 
Podobną sytuacje miałem ostatnio (pisałem na forum) - u mnie było tak, że zacząłem się bawić VM i mając 1GB na Qnapie całość przydzieliłem VM w skutek tego serwer wywalał identyczne problemy i restartował się. Jeśli nie korzystasz z VM to kolega Silas dobrze instruktarzuje :)
 
Zobacz, które dokładnie miejsce zapycha i polecenie lsof
Troszkę przerosło mnie polecenie lsof. Zapisując jego wynik do pliku, waży 4 MB, więc trochę tego tekstu jest do przeczytania.
Czego dokładnie mam tam szukać?
Podobną sytuacje miałem ostatnio (pisałem na forum) - u mnie było tak, że zacząłem się bawić VM i mając 1GB na Qnapie całość przydzieliłem VM w skutek tego serwer wywalał identyczne problemy i restartował się
Nie korzystam z VM, bo mam słabiutkiego ARMa, a serwer sam mi się nie restartował.
 
Czego dokładnie mam tam szukać?
Wcześniej sprawdz gdzie masz zajętą przestrzen poleceniem
Bash:
du -h --max-depth=1 /
Pomocne też będzie
Bash:
df -h
Następnie robisz w pętli:
Bash:
while [ true ]; do lsof | grep /root ; done
... gdzie zamiast /root podajesz scieżke w której jest nadmiar danych.
 
  • Lubię to
Reakcje: 1 osoba
Dzięki @Silas Mariusz
Na razie wyniki poniżej ze stabilnie działającego serwera.
Jak mi się znowu zapcha ramdisk, wówczas poszukam folderu z nadmiarowymi danymi.
Bash:
[~] # df -h
Filesystem                Size      Used Available Use% Mounted on
/dev/ramdisk             32.9M     16.9M     16.0M  51% /
tmpfs                    64.0M    348.0k     63.7M   1% /tmp
/dev/sda4               371.0M    334.3M     36.7M  90% /mnt/ext
/dev/md9                509.5M    133.8M    375.7M  26% /mnt/HDA_ROOT
/dev/mapper/sda3        926.3G    696.3G    229.5G  75% /share/HDA_DATA
tmpfs                     8.0M         0      8.0M   0% /var/syslog_maildir
/dev/mapper/sda3        926.3G    696.3G    229.5G  75% /deb
/dev/ramdisk             32.9M     16.9M     16.0M  51% /deb/squeeze/dev
/dev/md9                509.5M    133.8M    375.7M  26% /deb/squeeze/mnt/HDA_ROOT
/dev/sda4               371.0M    334.3M     36.7M  90% /deb/squeeze/mnt/ext
/dev/mapper/sda3        926.3G    696.3G    229.5G  75% /deb/squeeze/share/Public
/dev/mapper/sda3        926.3G    696.3G    229.5G  75% /deb/squeeze/share/Web
/dev/mapper/sda3        926.3G    696.3G    229.5G  75% /deb/squeeze/share/Multimedia
/dev/mapper/sda3        926.3G    696.3G    229.5G  75% /deb/squeeze/share/Download
/dev/mapper/sda3        926.3G    696.3G    229.5G  75% /deb/squeeze/wheezy/share/Download
/dev/mapper/sda3        926.3G    696.3G    229.5G  75% /deb/squeeze/wheezy/share/Multimedia
/dev/mapper/sda3        926.3G    696.3G    229.5G  75% /deb/squeeze/wheezy/share/Public
/dev/mapper/sda3        926.3G    696.3G    229.5G  75% /deb/squeeze/wheezy/share/Usb
/dev/mapper/sda3        926.3G    696.3G    229.5G  75% /deb/squeeze/wheezy/var/www
/dev/mapper/sda3        926.3G    696.3G    229.5G  75% /deb/squeeze/wheezy/tmp
Bash:
[~] # du -h --exclude=/tmp --exclude=/mnt --exclude=/share --exclude=/var --exclude=/deb --max-depth=1 /
12K     /lost+found
3.1M    /bin
27K     /dev
2.4M    /etc
5.2M    /lib
3.0K    /opt
du: cannot access `/proc/19886/task/19886/fd/4': No such file or directory
du: cannot access `/proc/19886/task/19886/fdinfo/4': No such file or directory
du: cannot access `/proc/19886/fd/4': No such file or directory
du: cannot access `/proc/19886/fdinfo/4': No such file or directory
0       /proc
31K     /root
4.5M    /sbin
0       /sys
1.0K    /rpc
1.0K    /Apps
16M     /
Bash:
[~] # du -h --max-depth=1 /deb/squeeze/dev
1.0K    /deb/squeeze/dev/net
1.0K    /deb/squeeze/dev/usb
0       /deb/squeeze/dev/pts
1.0K    /deb/squeeze/dev/snd
1.0K    /deb/squeeze/dev/mapper
27K     /deb/squeeze/dev
No i znowu ramdisk się zapchał. Statystyki poniżej - no i znowu jestem w punkcie wyjścia, bo nie widzę przyczyny zapełnienia ramdisku :-(
Jakiś pomysł?
Bash:
[~] # df -h
Filesystem                Size      Used Available Use% Mounted on
/dev/ramdisk             32.9M     32.9M         0 100% /
tmpfs                    64.0M    312.0k     63.7M   0% /tmp
/dev/sda4               371.0M    334.4M     36.6M  90% /mnt/ext
/dev/md9                509.5M    133.9M    375.5M  26% /mnt/HDA_ROOT
/dev/mapper/sda3        926.3G    672.4G    253.4G  73% /share/HDA_DATA
tmpfs                     8.0M     16.0k      8.0M   0% /var/syslog_maildir
/dev/mapper/sda3        926.3G    672.4G    253.4G  73% /deb
/dev/ramdisk             32.9M     32.9M         0 100% /deb/squeeze/dev
/dev/md9                509.5M    133.9M    375.5M  26% /deb/squeeze/mnt/HDA_ROOT
/dev/sda4               371.0M    334.4M     36.6M  90% /deb/squeeze/mnt/ext
/dev/mapper/sda3        926.3G    672.4G    253.4G  73% /deb/squeeze/share/Public
/dev/mapper/sda3        926.3G    672.4G    253.4G  73% /deb/squeeze/share/Web
/dev/mapper/sda3        926.3G    672.4G    253.4G  73% /deb/squeeze/share/Multimedia
/dev/mapper/sda3        926.3G    672.4G    253.4G  73% /deb/squeeze/share/Download
/dev/mapper/sda3        926.3G    672.4G    253.4G  73% /deb/squeeze/wheezy/share/Download
/dev/mapper/sda3        926.3G    672.4G    253.4G  73% /deb/squeeze/wheezy/share/Multimedia
/dev/mapper/sda3        926.3G    672.4G    253.4G  73% /deb/squeeze/wheezy/share/Public
/dev/mapper/sda3        926.3G    672.4G    253.4G  73% /deb/squeeze/wheezy/share/Usb
/dev/mapper/sda3        926.3G    672.4G    253.4G  73% /deb/squeeze/wheezy/var/www
/dev/mapper/sda3        926.3G    672.4G    253.4G  73% /deb/squeeze/wheezy/tmp
Bash:
[~] # du -h --exclude=/tmp --exclude=/mnt --exclude=/share --exclude=/var --exclude=/deb --max-depth=1 /
12K     /lost+found
3.1M    /bin
27K     /dev
2.4M    /etc
5.2M    /lib
3.0K    /opt
du: cannot access `/proc/2783/task/2783/fd/4': No such file or directory
du: cannot access `/proc/2783/task/2783/fdinfo/4': No such file or directory
du: cannot access `/proc/2783/fd/4': No such file or directory
du: cannot access `/proc/2783/fdinfo/4': No such file or directory
0       /proc
31K     /root
4.5M    /sbin
0       /sys
1.0K    /rpc
1.0K    /Apps
16M     /
Bash:
[~] # du -h --max-depth=1 /deb/squeeze/dev
1.0K    /deb/squeeze/dev/net
1.0K    /deb/squeeze/dev/usb
0       /deb/squeeze/dev/pts
1.0K    /deb/squeeze/dev/snd
1.0K    /deb/squeeze/dev/mapper
27K     /deb/squeeze/dev
 

Użytkownicy znaleźli tą stronę używając tych słów:

  1. ramdisk