Pomoc Zajęta przestrzeń dyskowa

Status
Brak możliwości dodawania odpowiedzi.

Automaciek

Passing Basics
Beginner
16 Marzec 2017
16
3
3
52
Szczecin
QNAP
null
Ethernet
802.11n (Wi-Fi 4)
Panowie, mam problem z TAS-268, z macierzą RAID 2 dyski 2Tb. Otóż coś mi "zajumało" wolne miejsce na dysku.

Kod:
[/share/CACHEDEV1_DATA/.system] # du -h --max-depth=1
39M ./data
4.0K ./tmp
31M ./music
988M ./thumbnail
4.0K ./bluetooth
1.1G .
[/share/CACHEDEV1_DATA/.system] #

Kod:
[/share/CACHEDEV1_DATA/.system] # ls -a
./ XcodeFile.db music/ thumbnail/
../ bluetooth/ myupnpmediasvr.log tmp/
MyDB data/ qdms.bak.tgz xcodesvr.xml
MyTranscodeDB mediadb2.xml s00_20180906_232124.sql

I nie bardzo wiem jak sobie poradzić
 
To może lepiej na tym temacie rozmawiać.
Ale z czym jest dokładnie problem? Bo to co podesłałeś nic mi nie mówi. Za dużo system zajmuje?
W tamtym wątku u mnie był problem ze snapshotami które mimo, że nie były używane/włączone a zajmowały miejsce.
 
'.' w bashu oznacza katalog obecny (mniej więcej po podsumowaniu wielkości by się zgadzały). Mam wyłączony dostęp do qnapa ale może podeślij screen z qnapa? Coś podobnego do:
1643897277070.png
 
A jak uruchomisz to polecenie do pokazywania zajętości miejsca z pierwszego posta ale w katalogu wyżej
Kod:
/share/CACHEDEV1_DATA
?
 
Wypluwa takie coś
Kod:
[/share/CACHEDEV1_DATA] # du -h --max-depth=1
16K ./lost+found
26G ./Multimedia
15G ./Download
12K ./Recordings
98M ./Web
58G ./Public
44K ./.spool
336M ./.qpkg
92K ./.php_session
8.0K ./.php_session_sys
118M ./.@qmariadb
12K ./.@qsync
252K ./.torrent
1.1G ./.system
20K ./.appDB
815M ./homes

i od kilku godzin stoi....
 
Niestety, aż tak się nie znam na qnapie bo faktycznie może być problem podobny do mojego ze złymi snapshotami. Ale nie wiem jak to sprawdzić z poziomu basha. Może ktoś coś podrzuci? A nie masz gdzieś w GUI info o snapshotach? Nie masz jakiś wykresów w QTS o zajętości (co ile zajmuje) ale w Menedżerze pamięci?
 
Pliki na dysku zajmują ok 1 Tb a wolumin jest zapełniony. W folderze systemowym jest coś ". " bez nazwy, co zajmuje 1.1Tb.
Jeżeli bardzo Cię intryguje, który to plik zajmuje 1,1 GB, wrzuć:
Kod:
ls -lha

Co do zapełnienia woluminu - jaki masz rodzaj woluminu? W przypadku woluminów dynamicznie alokowanych za pomocą komendy df nie zobaczysz skonfigurowanych parametrów woluminu, a jedynie bieżące użycie systemu plików - w trakcie zapisu danych będzie on "puchł", a do tego raz na jakiś czas odbywa się zwalnianie wolnego miejsca (głównie po skasowanych plikach). Tutaj najwygodniej posłużyć się GUI, żeby ocenić, ile miejsca zostało w poolu, ile zajmują ewentualne snapshoty itp.

Jeżeli jesteś ciekawy, jak to jest wewnętrznie zorganizowane, to użyj komendy mount.
 
Więc tak;
Kod:
[~] # mount
/dev/mmcblk0p5 on /mnt/emmcp5 type ext4 (ro)
devpts on /dev/pts type devpts (rw)
tmpfs on /tmp type tmpfs (rw,size=64M)
tmpfs on /dev/shm type tmpfs (rw)
tmpfs on /share type tmpfs (rw,size=16M)
/dev/md9 on /mnt/HDA_ROOT type ext3 (rw,data=orde
red)
cgroup_root on /sys/fs/cgroup type tmpfs (rw)
none on /sys/fs/cgroup/memory type cgroup (rw,mem
ory)
/dev/mapper/cachedev1 on /share/CACHEDEV1_DATA ty
pe ext4 (rw,usrjquota=aquota.user,jqfmt=vfsv0,use
r_xattr,data=ordered,delalloc,noacl)
/dev/md13 on /mnt/ext type ext3 (rw,data=ordered)
tmpfs on /share/CACHEDEV1_DATA/.samba/lock/msg.lo
ck type tmpfs (rw,size=16M)
tmpfs on /mnt/ext/opt/samba/private/msg.sock type
tmpfs (rw,size=16M)
tmpfs on /mnt/rf/nd type tmpfs (rw,size=1m)
/dev/mapper/cachedev1 on /android/nasroot type ex
t4 (rw,nosuid,nodev,noatime,journal_checksum,jour
nal_async_commit,errors=continue,data_err=ignore,
discard)
/android/nasroot/androiddata on /android/data typ
e none (rw,nosuid,nodev,bind,noatime,ext4)
/etc on /android/nasetc type none (rw,nosuid,node
v,bind,noatime,ext4,wait)
/dev/md9 on /android/mnt/HDA_ROOT type ext3 (rw,e
xt3)
/share on /android/share type none (rw,nosuid,nod
ev,bind,noatime,ext4,wait)
/share/CACHEDEV1_DATA on /android/share/CACHEDEV1
_DATA type none (rw,nosuid,nodev,bind,noatime,ext
4,wait)
cpuset on /var/pf/cpuset type cgroup (rw,cpuset)
cpu on /var/pf/cpu type cgroup (rw,cpu)
memory on /var/pf/memory type cgroup (rw,memory)
/dev/mmcblk0p2 on /android/tmp_data type ext4 (rw
,nosuid,noatime)
[~] #

Wolumin jest statyczny

Kod:
[~] # df
Filesystem Size Used Availabl
e Use% Mounted on
none 200.0M 187.3M 12.7
M 94% /
devtmpfs 867.7M 4.0k 867.7
M 0% /dev
/dev/mmcblk0p5 339.0M 175.0M 157.0
M 53% /mnt/emmcp5
tmpfs 64.0M 792.0k 63.2
M 1% /tmp
tmpfs 885.8M 28.0k 885.8
M 0% /dev/shm
tmpfs 16.0M 0 16.0
M 0% /share
tmpfs 885.8M 4.1M 881.7
M 0% /android
tmpfs 35.4M 0 35.4
M 0% /android/log
/dev/md9 515.5M 131.1M 384.4
M 25% /mnt/HDA_ROOT
cgroup_root 885.8M 0 885.8
M 0% /sys/fs/cgroup
/dev/mapper/cachedev1 1.8T 1.7T 23.2
G 99% /share/CACHEDEV1_DATA
/dev/md13 371.0M 211.4M 159.6
M 57% /mnt/ext
tmpfs 16.0M 28.0k 16.0
M 0% /share/CACHEDEV1_DATA/.samba/lock/msg.lock
tmpfs 16.0M 0 16.0
M 0% /mnt/ext/opt/samba/private/msg.sock
tmpfs 1.0M 0 1.0
M 0% /mnt/rf/nd
/dev/mapper/cachedev1 1.8T 1.7T 23.2
G 99% /android/nasroot
/dev/mapper/cachedev1 1.8T 1.7T 23.2
G 99% /android/data
tmpfs 885.8M 128.0k 885.7
M 0% /android/dev
none 200.0M 187.3M 12.7
M 94% /android/nasetc
/dev/md9 515.5M 131.1M 384.4
M 25% /android/mnt/HDA_ROOT
tmpfs 16.0M 0 16.0
M 0% /android/share
/dev/mapper/cachedev1 1.8T 1.7T 23.2
G 99% /android/share/CACHEDEV1_DATA
none 885.8M 0 885.8
M 0% /android/sys/fs/cgroup
tmpfs 885.8M 148.0k 885.7
M 0% /android/tmp
none 885.8M 0 885.8
M 0% /android/mnt/media_rw
none 885.8M 0 885.8
M 0% /android/storage
tmpfs 885.8M 0 885.8
M 0% /android/mnt/secure
tmpfs 885.8M 0 885.8
M 0% /android/mnt/asec
tmpfs 885.8M 0 885.8
M 0% /android/mnt/obb
/dev/block/mmcblk0p1 726.5M 607.9M 103.6
M 85% /android/system
/dev/block/mmcblk0p3 581.2M 1.0M 568.2
M 0% /android/cache
/dev/fuse 1.8T 1.7T 23.2
G 99% /android/mnt/shell/emulated
/dev/block/vold/253:0 1.8T 1.7T 23.2
G 99% /android/mnt/media_rw/QTS
/dev/fuse 1.8T 1.7T 23.2
G 99% /android/storage/QTS
/dev/mmcblk0p2 1.6G 2.6M 1.6
G 0% /android/tmp_data
[~] #


ls -lha

Kod:
 [~] # ls -lha
drwxr-xr-x 2 admin administ 240 Feb
5 21:48 ./
drwxr-xr-x 20 admin administ 500 Feb
5 21:48 ../
lrwxrwxrwx 1 admin administ 6 Feb
5 15:58 .BitTornado -> ../tmp/
-rw-r--r-- 1 admin administ 14 Feb
5 22:01 .bash_history
-rw-r--r-- 1 admin administ 175 Oct
9 2004 .bash_logout
-rw-r--r-- 1 admin administ 161 Oct
9 2004 .bash_profile
-rw-r--r-- 1 admin administ 1.6k Jul 1
8 2007 .bashrc
-rw-r--r-- 1 admin administ 37 Feb
5 15:05 .buzzer_warnning.conf
-rw-r--r-- 1 admin administ 27 Feb
5 21:48 .profile
lrwxrwxrwx 1 admin administ 15 Feb
5 15:05 .ssh -> /etc/config/ssh/
-rw-r--r-- 1 admin administ 923 Feb
5 15:00 .vimrc
-rw-r--r-- 1 admin administ 6.4k Jul 1
1 2007 index_default.html
[~] #

i

Kod:
[/share/CACHEDEV1_DATA] # ls -lha
drwxrwxrwx 46 admin administ 4.0k Feb
5 15:06 ./
drwxrwxrwt 5 admin administ 440 Feb
5 15:05 ../
drwxr-xr-x 2 admin administ 4.0k Feb
5 15:07 .@analytic/
drwxr-xr-x 2 admin administ 4.0k Feb
2 03:04 .@backup_config/
drwxr-xr-x 2 admin administ 4.0k Feb
2 03:04 .@backup_qbox/
drwxr-xr-x 4 admin administ 4.0k Mar 1
3 2017 .@qmariadb/
drwx------ 3 admin administ 4.0k Feb
2 17:45 .@qmonitor/
drwx------ 4 admin administ 4.0k Mar 1
3 2017 .@qsync/
drwxr-xr-x 6 admin administ 4.0k Mar 1
3 2017 .antivirus/
drwxr-xr-x 3 admin administ 4.0k Mar 1
3 2017 .appDB/
drwxr-xr-x 2 admin administ 4.0k Dec 2
5 2019 .fw_update_tmp_dir/
drwxr-xr-x 2 admin administ 4.0k May
3 2020 .idmap/
drwxr-xr-x 2 admin administ 4.0k Mar 1
3 2017 .ldapdb/
drwxr-xr-x 2 admin administ 4.0k Feb
5 15:04 .locks/
drwxr-xr-x 2 admin administ 4.0k Jun 1
7 2017 .log/
drwxrwxrwx 2 admin administ 88.0k Feb
5 17:39 .php_session/
drwxr-xr-x 2 admin administ 4.0k Feb
3 18:57 .php_session_sys/
drwxr-xr-x 3 admin administ 4.0k May
4 2020 .qbox/
drwxrwxrwx 2 admin administ 4.0k Feb
5 07:35 .qbox_view/
drwxrwxrwx 18 admin administ 4.0k Feb
5 21:51 .qpkg/
drwxr-xr-x 6 admin administ 4.0k Feb
2 17:32 .samba/
drwxrwxrwx 5 admin administ 4.0k Feb
5 15:04 .spool/
d--------- 2 admin administ 4.0k Jan 3
0 17:27 .swap/
drw-r--r-- 7 admin administ 20.0k Feb
3 10:52 .system/
drwxrwxrwx 3 admin administ 4.0k Mar 1
3 2017 .team_folder/
drwxr-x--- 2 admin administ 44.0k Feb
5 19:08 .tmp/
drwxr-xr-x 3 admin administ 4.0k Feb
5 15:07 .torrent/
drwxrwxrwx 3 admin administ 4.0k Mar 1
9 2017 .versioning/
drwxrwxrwx 4 admin administ 16.0k Feb
4 18:08 Acronis/
drwxrwxrwx 60 admin administ 4.0k May 3
0 2019 Biny/
drwxrwxrwx 13 admin administ 4.0k Mar 2
4 2020 Download/
drwxrwxrwx 11 admin administ 4.0k Oct
5 2020 Krzysztof/
drwxrwxrwx 11 admin administ 4.0k Dec 2
3 2018 Multimedia/
drwxrwxrwx 7 admin administ 4.0k Jan 1
0 19:04 Ola/
drwxrwxrwx 21 admin administ 4.0k Feb 2
1 2021 Oneplus/
drwxrwxrwx 28 admin administ 4.0k Jan 1
6 11:15 Public/
drwxrwxrwx 15 admin administ 4.0k Sep 2
1 2019 Qsync foto/
drwxrwxrwx 23 admin administ 4.0k Jan 1
7 10:07 Qsync z pracy/
drwxrwxrwx 3 admin administ 4.0k Mar 1
3 2017 Recordings/
drwxrwxrwx 5 admin administ 4.0k Jun
2 2020 UDOSTĘPNIANE/
drwxrwxrwx 5 admin administ 4.0k Feb
3 18:56 Web/
drwxrwxrwx 9 admin administ 4.0k Mar
5 2020 X250/
drwxrwxrwx 25 admin everyone 4.0k May
3 2018 androiddata/
-rw------- 1 admin administ 11.0k Mar 1
3 2017 aquota.user
drwxrwxrwx 5 admin administ 4.0k Feb
4 06:39 foto/
drwxrwxrwx 8 admin administ 4.0k Nov
8 2019 homes/
drwx------ 2 admin administ 16.0k Mar 1
3 2017 lost+found/
[/share/CACHEDEV1_DATA] #

I co z tego można wywnioskować?
Obecnie QNAP robi przebudowę macierzy RAID1, wczesniej trwała synchronizacja..... Coś nazwane "pliki systemowe" zajmuje 1.5 Tb przestrzeni na woluminie 2Tb i nie są to moje pliki
 
Póki co trwa przebudowa, i może z tego powodu nie wypełniają się informacje o zasobach, ale sprawdziłem w logach i 10 stycznia było 180Gb wolne, dziś już tylko 13Gb. Wciąż rośnie.... Dostęp z zewnątrz mam na porcie :90 i :21
 
i od ponad roku czasu twierdze - wolumen prosty , zero migawek = spokój ...
jak masz włączoną rezerwacje miejsca dla poszczególnych udziałów ?
Nie mam włączonych migawek, wolumin prosty i bez rezerwacji i przydziałów. QNAP chodził nieprzerwanie od kilku lat, od 2-3 lat nie grzebałem nic w konfiguracji.
Sprawdzalem wczoraj wszystkie ukryte foldery na CACHEDEV1_DATA poleceniem
Kod:
  -h --max-depth=1
i przy sprawdzaniu zawartosci folderu
".samba" konsola się wiesza.
Mogę bezkarnie usunąć ten katalog?
 
Status
Brak możliwości dodawania odpowiedzi.

Użytkownicy znaleźli tą stronę używając tych słów:

  1. du -h --max-depth=1
  2. pliki systemowe
  3. acronis
  4. Ticket
  5. time machine
  6. Cachedev1
  7. quest
  8. ukryte foldery
  9. wolumin prosty
  10. klient do pobierania
  11. Enterprise czy gold
  12. codex
  13. Ukryte
  14. tiny
  15. /etc/config/qpkg.conf