Pomoc QNAP TS-410 RAID-10

Status
Brak możliwości dodawania odpowiedzi.

Lisek Muldelek

Entry Technician
Q Associate
24 Marzec 2017
50
1
8
54
QNAP
TS-410
Ethernet
1 GbE
Witam forumowiczów i entuzjastów serwerów NAS firmy QNAP.

Ostatnim razem byłem tutaj dokładnie 2 lata temu w marcu, kiedy miałem problem ze zdegradowaną macierzą, ponieważ na jednym z dysków nagle pojawiły się bad blocki (o czym dowiedziałem się później podczas kopiowania danych - status w QNAPie był "dobry").
Na szczęście jakimś cudem miałem możliwość dostępu (po SSH) do danych i dane wszystkie przegrałem (w Ubuntu), wymieniłem dysk i od nowa założyłem RAID-10 i wgrałem wszystko od nowa.
I tak przez całe 2 lata śmigało pięknie.

Teraz pojawia się nowy problem, nie wiem czemu akurat teraz, ale może mój NAS lubi się odezwać i przypomnieć o sobie. :)

W międzyczasie skonfigurowałem taka usługę kopii / synchronizacji danych w Google Drive o nazwie "Cloud Drive Sync 2.0.358".
Ten pakiet jako aplikacja działała bardzo dobrze przez wiele miesięcy, ale od 2-3 dni QNAP powiadomieniami mailowymi (można takie ustawić) zgłaszał problem z logowaniem się do konta Google i generalnie ta synchronizacja najprawdopodobniej nie działa chociaż nie sprawdzałem.
Jak już się łączył to odświeżanie zadania z tym związanego trwało bardzo długo, co dla mnie było dziwne.
Słowem wyjaśnienia, w tej aplikacji ustawia się połączenie z kontem Google oraz zadania do synchronizacji, gdzie wskazuje się katalog lokalny na NASie oraz katalog docelowy w GoogleDrive - synchronizacja działa w obydwie strony.

Postanowiłem sprawdzić inne tego typu aplikacje (te dostępne w App Center), które strasznie długo się instalowały, a sam NAS bardzo spowolnił swoje działanie.
Niestety nie chciałem dłużej czekać (minęły 2h) i niektóre przerwałem.

Aczkolwiek pojawiło się okienko w stylu "wykonywanie kopii zapasowej pliku systemowego" czy coś takiego.
Odczekałem spokojnie aż się skończy myśląc, że chodzi o jakiś update softu.
Na koniec pojawiło się pytanie czy uruchomić ponownie NASa.

Dałem TAK, ale tak naprawdę nadal nie wiem co to było z tym plikiem systemowym, przecież nie uruchamiałem aktualizacji firmware, bo mam wersje z 28 grudnia (na końcu posta jest dokładne info).

Ponowne software'owe uruchomienie moim zdaniem nie udało się w pełni, ponieważ nie było tych dłuższych pisków serwera (pomimo, że dioda migała na przemian zielona/czerwona) oraz gdy już były wszystkie diody zielone, nie mogłem się dostać do oprogramowania QNAPa przez przeglądarkę.
Co więcej, ping po IP działał prawidłowo, ale SSH już nie wpuszczał (brak dostępu). W przeglądarce po IP i porcie 8080 - nie ma takiej strony.

Zrobiłem 10-sekundowy hard reset z guzika "Power" na obudowie QNAPa (10 sekund). Po sygnale dźwiękowym serwer po chwili wyłączył się.
Gdy odpaliłem ponownie miałem to samo, tj. długie wstawanie serwera, brak sygnału dźwiękowego i migające finalnie diody zielone.
Ale dostępu nadal nie było ani po SSH ani po web i 8080.

QNAP finder dodatkowo nie mógł już odnaleźć serwera.
Nawet ściągnałem Qnap Finder Pro - też nic.

Zastanawiałem się co mogę zrobić. Zastosowałem tzw. 3-sekundowy "short reset" (z tyłu obudowy QNAPa jest maleńka dziurka z napisem reset).
Po sygnale dźwiękowym serwer odświeżył swoje ustawienia sieci na defaultowe i po DHCP przyjął inne IP, które mogłem pingować.
Niestety, nadal dostęp przez stronę i port 8080 nie był możliwy. Przez SSH tym bardziej.
Ale odpaliłem Qnap Finder Pro i o dziwo serwer był znaleziony.

Tym własnie softem ustawiłem adres IP oraz zmieniłem hasło admina, aby nie było standardowe.
Po zapisaniu zmian mogłem Qnap Finder znajdywał serwer ze zmienionym przeze mnie IP i uwaga, mogłem wejść do softu przez stronę web na porcie 8080. Zalogowałem się, dyski były, macierz była, nawet mogłem wejść do udostępnionych folderów z danymi.
Ale dostałem taki warning QNAPowy,że trzeba sprawdzić dysk (macierz) z powodu błędnego zamknięcia serwera.
Sprawdzanie dysku uruchamia się ręcznie guziczkiem w ustawieniach dysków i macierzy (ikonka 'menedżer pamięci').
Tutaj od razu dodam, że wszystkie 4 dyski wg SMART miały i mają status "Dobrze".

I teraz uwaga, bo zbliżam się do finału historii choroby.

Nagle zauważyłem, że "Wolumen dysku RAID 10: Dysk 1-2 3-4" w kolumnie status ma kręciołek i napis "Synchronizowanie".
Ale strasznie spowolniało to cały serwer oraz % zwiększał się bardzo bardzo powoli.
Zostawiłem to synchronizowanie wieczorem i wróciłem dopiero rano --- wciąż było kilka procent, mniej niż 10% a minęło dobre 6-7h.

Przy okazji zobaczyłem w logu informacje, że trzeba przeskanować macierz w poszukiwaniu błędów.
O dziwo był dostępny guzik "Skanuj" (albo "Sprawdź" - chwilowo nie pamiętam).
W menedżerze pamięci na zakładce "Zarządzanie woluminami" są trzy guziki: "Formatuj", "Skanuj", "Usuń".

Pomyślałem sobie, że skoro synchronizacja trwa tak długo i nie można normalnie pracować na widocznych w sieci katalogach (nie dało się nawet skopiować pliku na pulpit komputera), prawdopodobnie z tego względu, że są jakieś błędy i trzeba przeskanować macierz.
Wcisnąłem więc guzik "Skanuj" :))))

NAS spytał czy chce potwierdzić, bo operacja może zająć dużo czasu.
Niestety nie było innej możliwości aby przerwać proces synchronizacji.

Wobec tego potwierdziłem uruchomienie skanowania macierzy w poszukiwaniu błędów.
QNAP tradycyjnie informował również o tymczasowym wyłączeniu usług na czas skanowania.

No i teraz nie wiem czy była to dobra decyzja, albowiem zamiast synchronizacji mam "Sprawdzanie" i kręciołek.
Sekundy, minuty i godziny zwiększają się średnio co minutę (jest już 06:38:35) , natomiast w nawiasie jest wciąż 0.0%.

Qnap Finder serwer znajduje, jak widać przez weba na porcie 8080 mogę spokojnie wejść.
Przez SSH też mogę wejść jako admin ze zmienionym hasłem.

Na szczęście widzę w /share/MD-0 cośtam i mogę przeglądać katalogi i pliki czyli dane jakby są...

Ale martwi mnie to sprawdzanie z zerowym postępem.

Nie wiem czy mam to przerwać czy czekać 30-40h a potem drugie tyle na synchronizację.
I czy synchronizacja się powiedzie...? tego też nie wiem.

Na szczęście macierz jest i działa.
Ale niestety folderów udostępnionych w sieci lokalnej a także danych tam zgromadzonych nie widać.
Ale to jest akurat normalne, ponieważ usługa udostępniania folderów (SMB) nie jest uruchomiona.

Co radzicie?
Czy dobrze zrobiłem, że przerwałem synchronizację i dałem sprawdzenie macierzy czy trzeba było poczekać?

Ogólnie serwer bardzo wolno działa. Nie wiem... wirus?

Może jakoś to zatrzymać, spróbować się podłączyć przez SCP i skopiować dane i od nowa wszystko porobić?
Wiecie jak to jest, nie chcemy stracić danych...

Pomożecie? :)

Wersja oprogramowania Firmware: 4.2.6 Build 20181228
Model serwera: QNAP TS-410
 
Czy mogę prosić edycję tematu, ponieważ nie dopisałem końcówki.
Powinno być: "QNAP TS-410 RAID-10 Synchronizacja i Sprawdzanie macierzy".
Dzięki.
Uwaga, mały update.... po ponad 11h sprawdzania macierzy i zerowym % postępu teraz raptem pojawiła się ... Synchronizacja z kręciołkiem i jest 2%
A już chciałem po raz kolejny restartować ten serwer...
Czytałem, że trzeba poczekać aż się synchronizacja skończy.

W tzw międzyczasie sprawdziłem czy widać dyski w sieci oraz wlazłem na serwer dzięki WinSCP podając dane do logowania z SSH (Putty).

Czekam aż synchronizacja z 2% zmieni się na więcej...

Poniżej screen jak to wygląda.

upload_2019-3-8_19-1-15.png
 
nie włączamy skanowania podczas odbudowy ... odbudowa (czytaj Twoje dane) są najważniejsze !

nie korzystaj z danych na nasie jak sie maciora odbudowywuje - czekamy grzecznie aż skończy

########

Aby przyśpieszyć odbudowę macierzy w QNAPie:
Zaloguj się SSH:
Odczytaj prędkości:

cat /proc/sys/dev/raid/speed_limit_max
cat /proc/sys/dev/raid/speed_limit_min

Zwiększ:

echo 50000 >/proc/sys/dev/raid/speed_limit_min
echo 150000 >/proc/sys/dev/raid/speed_limit_max

Informacje o odbudowie:
cat /proc/mdstat

while true; do date +"%T";cat /proc/mdstat; sleep 5; done
 
Dzięki pigers! :)

Kurde jakoś nie zaskoczyłem, że synchronizacja to jest odbudowa maciory...
Dziękować.

Odczytanie konfiguracji:
Kod:
[~] # cat /proc/sys/dev/raid/speed_limit_max
200000
[~] # cat /proc/sys/dev/raid/speed_limit_min
5000

Modyfikacja konfiguracji (wedle zalecenia):
Kod:
[~] # echo 50000 >/proc/sys/dev/raid/speed_limit_min
[~] # echo 150000 >/proc/sys/dev/raid/speed_limit_max

Ostatnia linijka genialna... faktycznie widać, że się odbudowuje...
Kod:
19:26:04
Personalities : [raid1] [linear] [raid0] [raid10] [raid6] [raid5] [raid4]
md0 : active raid10 sda3[4] sdd3[3] sdc3[2] sdb3[1]
                 3903891072 blocks super 1.0 64K chunks 2 near-copies [4/4] [UUUU]
                 [>....................]  resync =  2.0% (79805760/3903891072) finish=153061.3min speed=416K/sec
                 bitmap: 8/8 pages [32KB], 262144KB chunk

md4 : active raid1 sdd2[4](S) sdc2[3](S) sdb2[2] sda2[0]
                 530128 blocks super 1.0 [2/2] [UU]

md13 : active raid1 sda4[6] sdd4[5] sdc4[4] sdb4[3]
                 458880 blocks super 1.0 [4/4] [UUUU]
                 bitmap: 0/8 pages [0KB], 32KB chunk

md9 : active raid1 sda1[7] sdd1[6] sdc1[5] sdb1[4]
                 530112 blocks super 1.0 [4/4] [UUUU]
                 bitmap: 0/9 pages [0KB], 32KB chunk

unused devices: <none>

Ciekawe, czy po zwiększeniu limitów prędkość odbudowy maciory sama się zwiększy, czy ew. dopiero przy następnej odbudowie.
Prawdą jest, że jeśli taka macierz się odbudowuje (resyncing) to serwer i katalogi - o ile je widać w sieci - działają baaaardzo wolno.
I najlepiej jest nie używać tych plików , tak jak napisał pigers.
 
Jakoś nie zauważyłem. Sam zobacz.
Kod:
19:42:12
Personalities : [raid1] [linear] [raid0] [raid10] [raid6] [raid5] [raid4]
md0 : active raid10 sda3[4] sdd3[3] sdc3[2] sdb3[1]
                 3903891072 blocks super 1.0 64K chunks 2 near-copies [4/4] [UUUU]
                 [>....................]  resync =  2.0% (80185856/3903891072) finish=179652.4min speed=354K/sec
                 bitmap: 8/8 pages [32KB], 262144KB chunk

md4 : active raid1 sdd2[4](S) sdc2[3](S) sdb2[2] sda2[0]
                 530128 blocks super 1.0 [2/2] [UU]

md13 : active raid1 sda4[6] sdd4[5] sdc4[4] sdb4[3]
                 458880 blocks super 1.0 [4/4] [UUUU]
                 bitmap: 0/8 pages [0KB], 32KB chunk

md9 : active raid1 sda1[7] sdd1[6] sdc1[5] sdb1[4]
                 530112 blocks super 1.0 [4/4] [UUUU]
                 bitmap: 0/9 pages [0KB], 32KB chunk

unused devices: <none>
 
Coś tam jednak pociągnie (patrząc na speeda) a i nawet procent się zwiększył z 2 na 2.1 ;P
Kod:
20:18:02
Personalities : [raid1] [linear] [raid0] [raid10] [raid6] [raid5] [raid4]
md0 : active raid10 sda3[4] sdd3[3] sdc3[2] sdb3[1]
                 3903891072 blocks super 1.0 64K chunks 2 near-copies [4/4] [UUUU]
                 [>....................]  resync =  2.1% (83891968/3903891072) finish=14397.3min speed=4421K/sec
                 bitmap: 8/8 pages [32KB], 262144KB chunk

md4 : active raid1 sdd2[4](S) sdc2[3](S) sdb2[2] sda2[0]
                 530128 blocks super 1.0 [2/2] [UU]

md13 : active raid1 sda4[6] sdd4[5] sdc4[4] sdb4[3]
                 458880 blocks super 1.0 [4/4] [UUUU]
                 bitmap: 0/8 pages [0KB], 32KB chunk

md9 : active raid1 sda1[7] sdd1[6] sdc1[5] sdb1[4]
                 530112 blocks super 1.0 [4/4] [UUUU]
                 bitmap: 0/9 pages [0KB], 32KB chunk

unused devices: <none>
Tak sobie policzyłem... 14397min to jest niecałe 240h, a to jest niecałe 10 dni... to tak długo 2 lata temu maciorka się nie odbudowywała...
2.2% słabiutko idzie... poszukam info na forum o dyskach SSD - czy w ogóle warto...?
 
z bitmapą w RAID mogłoby być szybciej .. ale teraz to za późno na takie zmiany.

a dyski są OK ? taka mała prędkość oznacza przeważnie problem z dyskiem (bądź elementami dookoła jak złącza sata etc )...
 
o bitmapie coś jest (8/8 pages)
odnośnie stanu dysków...
upload_2019-3-8_23-49-32.png

nie ma jak demon szybkości... po 48 godzinach synchronizacji dopiero 13%... no.. 13.9%

upload_2019-3-10_7-41-20.png

Kod:
07:41:48
Personalities : [raid1] [linear] [raid0] [raid10] [raid6] [raid5] [raid4]
md0 : active raid10 sda3[4] sdd3[3] sdc3[2] sdb3[1]
                 3903891072 blocks super 1.0 64K chunks 2 near-copies [4/4] [UUUU]
                 [==>..................]  resync = 13.9% (544310784/3903891072) finish=13284.8min speed=4214K/sec
                 bitmap: 8/8 pages [32KB], 262144KB chunk

md4 : active raid1 sdd2[4](S) sdc2[3](S) sdb2[2] sda2[0]
                 530128 blocks super 1.0 [2/2] [UU]

md13 : active raid1 sda4[6] sdd4[5] sdc4[4] sdb4[3]
                 458880 blocks super 1.0 [4/4] [UUUU]
                 bitmap: 0/8 pages [0KB], 32KB chunk

md9 : active raid1 sda1[7] sdd1[6] sdc1[5] sdb1[4]
                 530112 blocks super 1.0 [4/4] [UUUU]
                 bitmap: 0/9 pages [0KB], 32KB chunk

unused devices: <none>
nic tylko się modlić aby nie przerwano procesu sychnronizacji... :)
oho-ho... po 82h przyspieszyła maszyneria...
tak naprawdę prędkość synchronizacji macierzy to sinusoida - raz szybciej raz wolniej
Kod:
17:46:18
Personalities : [raid1] [linear] [raid0] [raid10] [raid6] [raid5] [raid4]
md0 : active raid10 sda3[4] sdd3[3] sdc3[2] sdb3[1]
                 3903891072 blocks super 1.0 64K chunks 2 near-copies [4/4] [UUUU]
                 [======>..............]  resync = 33.7% (1316278016/3903891072) finish=3302.0min speed=13060K/sec
                 bitmap: 7/8 pages [28KB], 262144KB chunk

md4 : active raid1 sdd2[4](S) sdc2[3](S) sdb2[2] sda2[0]
                 530128 blocks super 1.0 [2/2] [UU]

md13 : active raid1 sda4[6] sdd4[5] sdc4[4] sdb4[3]
                 458880 blocks super 1.0 [4/4] [UUUU]
                 bitmap: 0/8 pages [0KB], 32KB chunk

md9 : active raid1 sda1[7] sdd1[6] sdc1[5] sdb1[4]
                 530112 blocks super 1.0 [4/4] [UUUU]
                 bitmap: 0/9 pages [0KB], 32KB chunk

unused devices: <none>

upload_2019-3-11_17-49-44.png

gdyby ktoś szukał info o bitmapie: Creating a RAID Bitmap
wow...
speed=18010K/sec
speed=18977K/sec
 

Załączniki

  • upload_2019-3-11_17-49-20.png
    upload_2019-3-11_17-49-20.png
    14,2 KB · Wyświetleń: 66
zapewne tak, a na dodatek mała pamięć RAM z tego co kojarzę...

a na szybszych prockach długo się synchronizuje?
Idzie dobrze...
Kod:
16:27:01
+ cat /proc/mdstat
Personalities : [raid1] [linear] [raid0] [raid10] [raid6] [raid5] [raid4]
md0 : active raid10 sda3[4] sdd3[3] sdc3[2] sdb3[1]
                 3903891072 blocks super 1.0 64K chunks 2 near-copies [4/4] [UUUU]
                 [===================>.]  resync = 97.9% (3823195456/3903891072) finish=59.1min speed=22734K/sec
                 bitmap: 3/8 pages [12KB], 262144KB chunk

md4 : active raid1 sdd2[4](S) sdc2[3](S) sdb2[2] sda2[0]
                 530128 blocks super 1.0 [2/2] [UU]

md13 : active raid1 sda4[6] sdd4[5] sdc4[4] sdb4[3]
                 458880 blocks super 1.0 [4/4] [UUUU]
                 bitmap: 0/8 pages [0KB], 32KB chunk

md9 : active raid1 sda1[7] sdd1[6] sdc1[5] sdb1[4]
                 530112 blocks super 1.0 [4/4] [UUUU]
                 bitmap: 0/9 pages [0KB], 32KB chunk

unused devices: <none>
 
przed chwilą widziałem 23MB/s

teraz się tak waha pomiędzy 18-23...

ok godzina do końca resync.... (cały proces trwa 129:02:26)


czy po skończeniu dobrze jest przeładować NASa w trybie normalnym w QTSa??
 
no to robimy restart QTSem

upload_2019-3-13_18-1-6.png

nadal czekam z tym ekranem powyżej...
diody na zielono, nic nie bipczy...

jedyne co to widzę, że połączenie do SSH zostało zerwane...

upload_2019-3-13_18-12-21.png


cierpliwie czekam dalej...
ooo... dioda zielona wreszcie zaczęła migać na czerwono... (czyli jest dobrze)
czekam dalej...
no dobrze poszło (zapewne kilka minut temu), gdyż teraz widzę stronę QTS do logowania
upload_2019-3-13_18-26-40.png


upload_2019-3-13_18-26-25.png

sprawdzę teraz konfigurację Cloud Drive Sync, to tak naprawdę od niej się zaczęło...
włączyłem aplikację Cloud Drive Sync
konto Google akurat było już ustawione wcześniej
ale musiałem skonfigurować (dodać) 'zadanie' (synchronizacji pomiędzy dwoma folderami lokalny<-->GogleDrive), gdzie na finiszu miałem guzik "Zakończ"
no i tak czekam z tym co poniżej dobre 20 minut ;)
upload_2019-3-13_20-6-20.png


czyżby był jakiś problem z dodaniem do crona czy co?
w międzyczasie przyszło mi mailowe powiadomienie z tego QNAPa:
Kod:
[CloudDriveSync] (Sync) job [/QNAP/Varia/Adam/GoogleDrive<->[EMAIL]a.kucza@gmail.com[/EMAIL] (Google Drive):/] failed: Failed to connect to the cloud storage service after multiple attempts. Check your network settings.

te same powiadomienia wysyłały się wcześniej przed całym incydentem spowolnienia i odbudowy macierzy

może ta apka przestała być jakby 'zaufana'?

na razie nie wiem co robić, czekam aż zniknie kręciołek w czarnej ramce...
może znacie jakąś inną ale dobrą i szybką apkę do QTS do synchronizacji folderu na QNAPie a dyskiem Google?
i nie doczekałem się, bo przeglądarka krzyknęła coś w stylu "serwer zajęty, czy przeładować"
więc dałem przeładowanie i przeglądarka załadowania ponownie QTSa z okienkiem AppCenter

coś ta apka nie działa dobrze... w dodatku długo się ładuje
kiedyś jak ją odkryłem śmigało bardzo szybko (tak w kilka sekund, ale nie w minutach)
upload_2019-3-13_20-45-23.png
 

Załączniki

  • upload_2019-3-13_20-4-25.png
    upload_2019-3-13_20-4-25.png
    56,2 KB · Wyświetleń: 63
Status
Brak możliwości dodawania odpowiedzi.

Użytkownicy znaleźli tą stronę używając tych słów:

  1. błędy kopiowania
  2. migające diody
  3. uruchamia się powoli