Zatkany TS-409

elektro232

Nowy użytkownik
Noobie
2 Styczeń 2009
3
0
1
BYTOM
Witam

firma zakupiła TS-409 na serwer backupów. Kiedy uruchomiliśmy backupy maszyn (20 szt.) na NAS`a okazało się że podczas kopiowania dużej ilości małych plików NAS po prostu się zatyka. Przy 22Mb/s danych wchodzących CPU sięga 100% co muli maszynę do tego stopnia że nie jest w stanie wykonać aktualizacji statystyk (netcat) że nie wspomnę o braku możliwości zalogowania się na maszynę (ani www ani ssh). Nie ukrywam że w pewnym momencie staje się to problemem i chciałbym się dowiedzieć czy ktoś odnotował podobne problemy.

Problem nie występuje przy kopiowaniu dużych plików.
 

Załączniki

  • nas-cpu-23hours.png
    nas-cpu-23hours.png
    6,1 KB · Wyświetleń: 640
  • nas-mem-23hours.png
    nas-mem-23hours.png
    3,8 KB · Wyświetleń: 644
Witam,
Posiadam TS-509 i występuje podobny problem. Raczej to normalne zachowanie. W ramach testów spróbuj skopiować jakiś folder z dysku na dysk z dużą ilością małych plików na komputerze PC. Zobaczysz sam, że prędkość kopiowania nagle spada do minimum. Problem ten wynika z metody zapisu danych na dysku. Łatwiej jest zapisać plik o wielkości 10 MB niż 10 plików po 1 MB. Zobaczysz, że 10 plików po 1 MB zajmują więcej miejsca na dysku niż jeden plik 10 MB.
 
Witam

jako że problem z małymi plikami faktycznie jest nie do wyeliminowania podjęliśmy próbę wrzucenia plików spakowanych. I teraz sytuacja wyglada tak że mamy problem podczas wrzucania po FTP wielkich plików, np po 20GB. Problem występuje, gdy prędkość kopiowania (a raczej ruchu na interface) wyjdzie powyżej 40Mb/s. 4 dyski 1TB sATA2 nie mogą tak wolno działać, a poza tym jak doskonale wiadomo, kopiowanie plików nie obciąża _aż tak_ procesora żeby nie można było się do niej zalogować. Coś tu jest nie halo...

Pozdrawiam.
 
Nie testowałem u siebie przesyłania dużych plików po FTP, obawiam się że będziesz musiał mapować dysk i tak wrzucać kopie 20 GB.
Napisz jak przeprowadzasz proces archiwizacji i jakich aplikacji wykorzystujesz.
 
Witam

przepraszam ze dopiero teraz odpisuję ale się wcześniej nie dało.

Rozumiem że pytanie jakiego używamy programu dotyczyło programu do transferów.Do przesyłania plików używamy linuxowego ftp.Wszystkie maszyny są spięte LAN-1GB więc nie jest to problem switcha, wydajności sieciówek itd. Backup w postacie szyfrowanego archiwum linuxowego leci z maszyny do switcha i do NAS`a. Nic poza tym na NAS`ie się nie dzieje więc niema możliwości że jakaś inna usługa go "muli".
 
FTP wogole sie nie nadaje do przesylania duzej ilosc malych plikow, a to czemu?

komunikacja protokoly FTP jest prosta ale wolna...
klient wysyla informacje ze chce wyslac plik o nazwie X i o wielkosci Y, serwer odpowiada ze moze odebrac plik o nazwie X i wielkosci Y pod warunkiem ze nazwa X jest zgodna i ze jest Y wolnej przestrzeni dyskowej, klient wysyla informacje ze chce wysylac plik w trybie pasywnym (w przypadku korzystania z tego trybu), server odpowiada portem portem na ktory ma byc odbierany plik, dany porty jest otwierany przy czym klient musi czekac, i dopiero wysyla plik

sam system komunikacji miedzy klientem a serwerem jest prosty i raczej nie zawodny ... jednak jak wspomnialem wczesniej bardzo wolny


w przypadku SMB wyglada to zupelnie inaczej i sam proces przesylania duzej ilosc plikow o malym rozmiarze jest znacznie szybszy
natomiast wysylanie plikow o duzych rozmiarach jest znacznie szybsze poprzez FTP...