Pomoc Zajęta przestrzeń dyskowa

Status
Brak możliwości dodawania odpowiedzi.

Automaciek

Passing Basics
Beginner
16 Marzec 2017
16
3
3
51
Szczecin
QNAP
null
Ethernet
802.11n (Wi-Fi 4)
Panowie, mam problem z TAS-268, z macierzą RAID 2 dyski 2Tb. Otóż coś mi "zajumało" wolne miejsce na dysku.

Kod:
[/share/CACHEDEV1_DATA/.system] # du -h --max-depth=1
39M ./data
4.0K ./tmp
31M ./music
988M ./thumbnail
4.0K ./bluetooth
1.1G .
[/share/CACHEDEV1_DATA/.system] #

Kod:
[/share/CACHEDEV1_DATA/.system] # ls -a
./ XcodeFile.db music/ thumbnail/
../ bluetooth/ myupnpmediasvr.log tmp/
MyDB data/ qdms.bak.tgz xcodesvr.xml
MyTranscodeDB mediadb2.xml s00_20180906_232124.sql

I nie bardzo wiem jak sobie poradzić
 
To może lepiej na tym temacie rozmawiać.
Ale z czym jest dokładnie problem? Bo to co podesłałeś nic mi nie mówi. Za dużo system zajmuje?
W tamtym wątku u mnie był problem ze snapshotami które mimo, że nie były używane/włączone a zajmowały miejsce.
 
'.' w bashu oznacza katalog obecny (mniej więcej po podsumowaniu wielkości by się zgadzały). Mam wyłączony dostęp do qnapa ale może podeślij screen z qnapa? Coś podobnego do:
1643897277070.png
 
A jak uruchomisz to polecenie do pokazywania zajętości miejsca z pierwszego posta ale w katalogu wyżej
Kod:
/share/CACHEDEV1_DATA
?
 
Wypluwa takie coś
Kod:
[/share/CACHEDEV1_DATA] # du -h --max-depth=1
16K ./lost+found
26G ./Multimedia
15G ./Download
12K ./Recordings
98M ./Web
58G ./Public
44K ./.spool
336M ./.qpkg
92K ./.php_session
8.0K ./.php_session_sys
118M ./.@qmariadb
12K ./.@qsync
252K ./.torrent
1.1G ./.system
20K ./.appDB
815M ./homes

i od kilku godzin stoi....
 
Niestety, aż tak się nie znam na qnapie bo faktycznie może być problem podobny do mojego ze złymi snapshotami. Ale nie wiem jak to sprawdzić z poziomu basha. Może ktoś coś podrzuci? A nie masz gdzieś w GUI info o snapshotach? Nie masz jakiś wykresów w QTS o zajętości (co ile zajmuje) ale w Menedżerze pamięci?
 
Pliki na dysku zajmują ok 1 Tb a wolumin jest zapełniony. W folderze systemowym jest coś ". " bez nazwy, co zajmuje 1.1Tb.
Jeżeli bardzo Cię intryguje, który to plik zajmuje 1,1 GB, wrzuć:
Kod:
ls -lha

Co do zapełnienia woluminu - jaki masz rodzaj woluminu? W przypadku woluminów dynamicznie alokowanych za pomocą komendy df nie zobaczysz skonfigurowanych parametrów woluminu, a jedynie bieżące użycie systemu plików - w trakcie zapisu danych będzie on "puchł", a do tego raz na jakiś czas odbywa się zwalnianie wolnego miejsca (głównie po skasowanych plikach). Tutaj najwygodniej posłużyć się GUI, żeby ocenić, ile miejsca zostało w poolu, ile zajmują ewentualne snapshoty itp.

Jeżeli jesteś ciekawy, jak to jest wewnętrznie zorganizowane, to użyj komendy mount.
 
Więc tak;
Kod:
[~] # mount
/dev/mmcblk0p5 on /mnt/emmcp5 type ext4 (ro)
devpts on /dev/pts type devpts (rw)
tmpfs on /tmp type tmpfs (rw,size=64M)
tmpfs on /dev/shm type tmpfs (rw)
tmpfs on /share type tmpfs (rw,size=16M)
/dev/md9 on /mnt/HDA_ROOT type ext3 (rw,data=orde
red)
cgroup_root on /sys/fs/cgroup type tmpfs (rw)
none on /sys/fs/cgroup/memory type cgroup (rw,mem
ory)
/dev/mapper/cachedev1 on /share/CACHEDEV1_DATA ty
pe ext4 (rw,usrjquota=aquota.user,jqfmt=vfsv0,use
r_xattr,data=ordered,delalloc,noacl)
/dev/md13 on /mnt/ext type ext3 (rw,data=ordered)
tmpfs on /share/CACHEDEV1_DATA/.samba/lock/msg.lo
ck type tmpfs (rw,size=16M)
tmpfs on /mnt/ext/opt/samba/private/msg.sock type
tmpfs (rw,size=16M)
tmpfs on /mnt/rf/nd type tmpfs (rw,size=1m)
/dev/mapper/cachedev1 on /android/nasroot type ex
t4 (rw,nosuid,nodev,noatime,journal_checksum,jour
nal_async_commit,errors=continue,data_err=ignore,
discard)
/android/nasroot/androiddata on /android/data typ
e none (rw,nosuid,nodev,bind,noatime,ext4)
/etc on /android/nasetc type none (rw,nosuid,node
v,bind,noatime,ext4,wait)
/dev/md9 on /android/mnt/HDA_ROOT type ext3 (rw,e
xt3)
/share on /android/share type none (rw,nosuid,nod
ev,bind,noatime,ext4,wait)
/share/CACHEDEV1_DATA on /android/share/CACHEDEV1
_DATA type none (rw,nosuid,nodev,bind,noatime,ext
4,wait)
cpuset on /var/pf/cpuset type cgroup (rw,cpuset)
cpu on /var/pf/cpu type cgroup (rw,cpu)
memory on /var/pf/memory type cgroup (rw,memory)
/dev/mmcblk0p2 on /android/tmp_data type ext4 (rw
,nosuid,noatime)
[~] #

Wolumin jest statyczny

Kod:
[~] # df
Filesystem Size Used Availabl
e Use% Mounted on
none 200.0M 187.3M 12.7
M 94% /
devtmpfs 867.7M 4.0k 867.7
M 0% /dev
/dev/mmcblk0p5 339.0M 175.0M 157.0
M 53% /mnt/emmcp5
tmpfs 64.0M 792.0k 63.2
M 1% /tmp
tmpfs 885.8M 28.0k 885.8
M 0% /dev/shm
tmpfs 16.0M 0 16.0
M 0% /share
tmpfs 885.8M 4.1M 881.7
M 0% /android
tmpfs 35.4M 0 35.4
M 0% /android/log
/dev/md9 515.5M 131.1M 384.4
M 25% /mnt/HDA_ROOT
cgroup_root 885.8M 0 885.8
M 0% /sys/fs/cgroup
/dev/mapper/cachedev1 1.8T 1.7T 23.2
G 99% /share/CACHEDEV1_DATA
/dev/md13 371.0M 211.4M 159.6
M 57% /mnt/ext
tmpfs 16.0M 28.0k 16.0
M 0% /share/CACHEDEV1_DATA/.samba/lock/msg.lock
tmpfs 16.0M 0 16.0
M 0% /mnt/ext/opt/samba/private/msg.sock
tmpfs 1.0M 0 1.0
M 0% /mnt/rf/nd
/dev/mapper/cachedev1 1.8T 1.7T 23.2
G 99% /android/nasroot
/dev/mapper/cachedev1 1.8T 1.7T 23.2
G 99% /android/data
tmpfs 885.8M 128.0k 885.7
M 0% /android/dev
none 200.0M 187.3M 12.7
M 94% /android/nasetc
/dev/md9 515.5M 131.1M 384.4
M 25% /android/mnt/HDA_ROOT
tmpfs 16.0M 0 16.0
M 0% /android/share
/dev/mapper/cachedev1 1.8T 1.7T 23.2
G 99% /android/share/CACHEDEV1_DATA
none 885.8M 0 885.8
M 0% /android/sys/fs/cgroup
tmpfs 885.8M 148.0k 885.7
M 0% /android/tmp
none 885.8M 0 885.8
M 0% /android/mnt/media_rw
none 885.8M 0 885.8
M 0% /android/storage
tmpfs 885.8M 0 885.8
M 0% /android/mnt/secure
tmpfs 885.8M 0 885.8
M 0% /android/mnt/asec
tmpfs 885.8M 0 885.8
M 0% /android/mnt/obb
/dev/block/mmcblk0p1 726.5M 607.9M 103.6
M 85% /android/system
/dev/block/mmcblk0p3 581.2M 1.0M 568.2
M 0% /android/cache
/dev/fuse 1.8T 1.7T 23.2
G 99% /android/mnt/shell/emulated
/dev/block/vold/253:0 1.8T 1.7T 23.2
G 99% /android/mnt/media_rw/QTS
/dev/fuse 1.8T 1.7T 23.2
G 99% /android/storage/QTS
/dev/mmcblk0p2 1.6G 2.6M 1.6
G 0% /android/tmp_data
[~] #


ls -lha

Kod:
 [~] # ls -lha
drwxr-xr-x 2 admin administ 240 Feb
5 21:48 ./
drwxr-xr-x 20 admin administ 500 Feb
5 21:48 ../
lrwxrwxrwx 1 admin administ 6 Feb
5 15:58 .BitTornado -> ../tmp/
-rw-r--r-- 1 admin administ 14 Feb
5 22:01 .bash_history
-rw-r--r-- 1 admin administ 175 Oct
9 2004 .bash_logout
-rw-r--r-- 1 admin administ 161 Oct
9 2004 .bash_profile
-rw-r--r-- 1 admin administ 1.6k Jul 1
8 2007 .bashrc
-rw-r--r-- 1 admin administ 37 Feb
5 15:05 .buzzer_warnning.conf
-rw-r--r-- 1 admin administ 27 Feb
5 21:48 .profile
lrwxrwxrwx 1 admin administ 15 Feb
5 15:05 .ssh -> /etc/config/ssh/
-rw-r--r-- 1 admin administ 923 Feb
5 15:00 .vimrc
-rw-r--r-- 1 admin administ 6.4k Jul 1
1 2007 index_default.html
[~] #

i

Kod:
[/share/CACHEDEV1_DATA] # ls -lha
drwxrwxrwx 46 admin administ 4.0k Feb
5 15:06 ./
drwxrwxrwt 5 admin administ 440 Feb
5 15:05 ../
drwxr-xr-x 2 admin administ 4.0k Feb
5 15:07 .@analytic/
drwxr-xr-x 2 admin administ 4.0k Feb
2 03:04 .@backup_config/
drwxr-xr-x 2 admin administ 4.0k Feb
2 03:04 .@backup_qbox/
drwxr-xr-x 4 admin administ 4.0k Mar 1
3 2017 .@qmariadb/
drwx------ 3 admin administ 4.0k Feb
2 17:45 .@qmonitor/
drwx------ 4 admin administ 4.0k Mar 1
3 2017 .@qsync/
drwxr-xr-x 6 admin administ 4.0k Mar 1
3 2017 .antivirus/
drwxr-xr-x 3 admin administ 4.0k Mar 1
3 2017 .appDB/
drwxr-xr-x 2 admin administ 4.0k Dec 2
5 2019 .fw_update_tmp_dir/
drwxr-xr-x 2 admin administ 4.0k May
3 2020 .idmap/
drwxr-xr-x 2 admin administ 4.0k Mar 1
3 2017 .ldapdb/
drwxr-xr-x 2 admin administ 4.0k Feb
5 15:04 .locks/
drwxr-xr-x 2 admin administ 4.0k Jun 1
7 2017 .log/
drwxrwxrwx 2 admin administ 88.0k Feb
5 17:39 .php_session/
drwxr-xr-x 2 admin administ 4.0k Feb
3 18:57 .php_session_sys/
drwxr-xr-x 3 admin administ 4.0k May
4 2020 .qbox/
drwxrwxrwx 2 admin administ 4.0k Feb
5 07:35 .qbox_view/
drwxrwxrwx 18 admin administ 4.0k Feb
5 21:51 .qpkg/
drwxr-xr-x 6 admin administ 4.0k Feb
2 17:32 .samba/
drwxrwxrwx 5 admin administ 4.0k Feb
5 15:04 .spool/
d--------- 2 admin administ 4.0k Jan 3
0 17:27 .swap/
drw-r--r-- 7 admin administ 20.0k Feb
3 10:52 .system/
drwxrwxrwx 3 admin administ 4.0k Mar 1
3 2017 .team_folder/
drwxr-x--- 2 admin administ 44.0k Feb
5 19:08 .tmp/
drwxr-xr-x 3 admin administ 4.0k Feb
5 15:07 .torrent/
drwxrwxrwx 3 admin administ 4.0k Mar 1
9 2017 .versioning/
drwxrwxrwx 4 admin administ 16.0k Feb
4 18:08 Acronis/
drwxrwxrwx 60 admin administ 4.0k May 3
0 2019 Biny/
drwxrwxrwx 13 admin administ 4.0k Mar 2
4 2020 Download/
drwxrwxrwx 11 admin administ 4.0k Oct
5 2020 Krzysztof/
drwxrwxrwx 11 admin administ 4.0k Dec 2
3 2018 Multimedia/
drwxrwxrwx 7 admin administ 4.0k Jan 1
0 19:04 Ola/
drwxrwxrwx 21 admin administ 4.0k Feb 2
1 2021 Oneplus/
drwxrwxrwx 28 admin administ 4.0k Jan 1
6 11:15 Public/
drwxrwxrwx 15 admin administ 4.0k Sep 2
1 2019 Qsync foto/
drwxrwxrwx 23 admin administ 4.0k Jan 1
7 10:07 Qsync z pracy/
drwxrwxrwx 3 admin administ 4.0k Mar 1
3 2017 Recordings/
drwxrwxrwx 5 admin administ 4.0k Jun
2 2020 UDOSTĘPNIANE/
drwxrwxrwx 5 admin administ 4.0k Feb
3 18:56 Web/
drwxrwxrwx 9 admin administ 4.0k Mar
5 2020 X250/
drwxrwxrwx 25 admin everyone 4.0k May
3 2018 androiddata/
-rw------- 1 admin administ 11.0k Mar 1
3 2017 aquota.user
drwxrwxrwx 5 admin administ 4.0k Feb
4 06:39 foto/
drwxrwxrwx 8 admin administ 4.0k Nov
8 2019 homes/
drwx------ 2 admin administ 16.0k Mar 1
3 2017 lost+found/
[/share/CACHEDEV1_DATA] #

I co z tego można wywnioskować?
Obecnie QNAP robi przebudowę macierzy RAID1, wczesniej trwała synchronizacja..... Coś nazwane "pliki systemowe" zajmuje 1.5 Tb przestrzeni na woluminie 2Tb i nie są to moje pliki
 
Póki co trwa przebudowa, i może z tego powodu nie wypełniają się informacje o zasobach, ale sprawdziłem w logach i 10 stycznia było 180Gb wolne, dziś już tylko 13Gb. Wciąż rośnie.... Dostęp z zewnątrz mam na porcie :90 i :21
 
i od ponad roku czasu twierdze - wolumen prosty , zero migawek = spokój ...
jak masz włączoną rezerwacje miejsca dla poszczególnych udziałów ?
Nie mam włączonych migawek, wolumin prosty i bez rezerwacji i przydziałów. QNAP chodził nieprzerwanie od kilku lat, od 2-3 lat nie grzebałem nic w konfiguracji.
Sprawdzalem wczoraj wszystkie ukryte foldery na CACHEDEV1_DATA poleceniem
Kod:
  -h --max-depth=1
i przy sprawdzaniu zawartosci folderu
".samba" konsola się wiesza.
Mogę bezkarnie usunąć ten katalog?
 
Status
Brak możliwości dodawania odpowiedzi.

Użytkownicy znaleźli tą stronę używając tych słów:

  1. du -h --max-depth=1
  2. pliki systemowe
  3. Ticket
  4. time machine
  5. /etc/config/qpkg.conf
  6. Cachedev1
  7. quest
  8. acronis
  9. ukryte foldery
  10. wolumin prosty
  11. klient do pobierania
  12. Enterprise czy gold
  13. codex
  14. Ukryte