Witam
Na początku może podam konfigurację mojego sprzętu:
TS-420
QTS ver. 4.0.2 z 26.07.2013
Od niedawna 4 dyski WD RED po 2 TB każdy
A teraz opisze mój problem/wątpliwości
Mianowicie do niedawna w Qnapie były wsadzone 3 HDD i pracowały w RAID5. W ostatnich dniach dokupiłem 4 dysk ponieważ po przeniesieniu danych z poprzedniego QNAPA zrobiło się dość ciasno. Po dołożeniu dysku i rozszerzeniu RAID5 Qnap rozpoczął przebudowę. Wszystko wyglądało normalnie (poza tym że nie zwiększył pojemności o miejsce z dołożonego dysku ale to sobie tłumaczyłem że jak skończy przebudowę to je dokoptuje) i wszystko było by fajnie gdyby nie fakt że dziś po zalogowaniu sie do Qnapa zauważyłem że przebudowa dysku rozpoczęła się od nowa. Z logów wyczytałem że poprzednia zakończyła się ok godz. 7:46 a nowa wystartowała chwilę później. I teraz moje pytanie czy to jest normalne że w tego typu operacjach jest więcej niż jeden przebieg?? Czy mam się zacząć martwić??
Niektórzy mogą zauważyć że pisałem posty odnośnie odbudowy RAID5 dlatego chciałbym zaznaczyć iż tamte posty dotyczyły zupełnie innego sprzętu a ten jest moim prywatnym i urządzenie to ma mniej niż miesiąc a dyski w nim były zainstalowane od zera i nie miało miejsce żadne przenoszenie pomiędzy dwoma różnymi urządzeniami. Aha na koniec dodam że w tym przebiegu przebudowy zastosowałem tricki z tutoriala o przyspieszeniu odbudowy RAID i powyłączałem usługi.
poniżej wyniki poleceń:
cat /etc/mtab
cat /proc/mdstat
mdadm --detail /dev/md0
i na koniec:
df
UPDATE:
Chyba już wiem skąd ten drugi przebieg. Mianowicie 4 dysk został dodany do macierzy jednak nie udało się rozszerzanie pojemności (startuje i na 50% zatrzymuje się z komunikatem że rozszerzenie pojemności nie powiodło się) zamiast tego dostaje takie ostrzeżenia w logach:
Mógłby się ktoś wypowiedzieć na temat tego błędu?? Domyślam się że czeka mnie reklamowanie dysku a najgorsze jest to że mam go dopiero jakieś 3 dni :/
Na początku może podam konfigurację mojego sprzętu:
TS-420
QTS ver. 4.0.2 z 26.07.2013
Od niedawna 4 dyski WD RED po 2 TB każdy
A teraz opisze mój problem/wątpliwości
Mianowicie do niedawna w Qnapie były wsadzone 3 HDD i pracowały w RAID5. W ostatnich dniach dokupiłem 4 dysk ponieważ po przeniesieniu danych z poprzedniego QNAPA zrobiło się dość ciasno. Po dołożeniu dysku i rozszerzeniu RAID5 Qnap rozpoczął przebudowę. Wszystko wyglądało normalnie (poza tym że nie zwiększył pojemności o miejsce z dołożonego dysku ale to sobie tłumaczyłem że jak skończy przebudowę to je dokoptuje) i wszystko było by fajnie gdyby nie fakt że dziś po zalogowaniu sie do Qnapa zauważyłem że przebudowa dysku rozpoczęła się od nowa. Z logów wyczytałem że poprzednia zakończyła się ok godz. 7:46 a nowa wystartowała chwilę później. I teraz moje pytanie czy to jest normalne że w tego typu operacjach jest więcej niż jeden przebieg?? Czy mam się zacząć martwić??
Niektórzy mogą zauważyć że pisałem posty odnośnie odbudowy RAID5 dlatego chciałbym zaznaczyć iż tamte posty dotyczyły zupełnie innego sprzętu a ten jest moim prywatnym i urządzenie to ma mniej niż miesiąc a dyski w nim były zainstalowane od zera i nie miało miejsce żadne przenoszenie pomiędzy dwoma różnymi urządzeniami. Aha na koniec dodam że w tym przebiegu przebudowy zastosowałem tricki z tutoriala o przyspieszeniu odbudowy RAID i powyłączałem usługi.
poniżej wyniki poleceń:
cat /etc/mtab
Kod:
/proc /proc proc rw 0 0
none /dev/pts devpts rw,gid=5,mode=620 0 0
sysfs /sys sysfs rw 0 0
tmpfs /tmp tmpfs rw,size=32M 0 0
none /proc/bus/usb usbfs rw 0 0
/dev/sda4 /mnt/ext ext3 rw 0 0
/dev/md9 /mnt/HDA_ROOT ext3 rw 0 0
/dev/md0 /share/MD0_DATA ext4 rw,usrjquota=aquota.user,jqfmt=vfsv0,user_xattr,data=ordered,delalloc,noacl 0 0
nfsd /proc/fs/nfsd nfsd rw 0 0
tmpfs /var/syslog_maildir tmpfs rw,size=8M 0 0
none /sys/kernel/config configfs rw 0 0
cat /proc/mdstat
Kod:
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md4 : active raid1 sdd2[2](S) sdc2[3](S) sdb2[1] sda2[0]
530048 blocks [2/2] [UU]
md0 : active raid5 sda3[0] sdd3[4] sdc3[2] sdb3[1]
5840775936 blocks level 5, 64k chunk, algorithm 2 [4/3] [UUU_]
[=======>.............] recovery = 37.4% (728491520/1946925312) finish=356.5min speed=56948K/sec
md13 : active raid1 sda4[0] sdd4[3] sdc4[2] sdb4[1]
458880 blocks [4/4] [UUUU]
bitmap: 0/57 pages [0KB], 4KB chunk
md9 : active raid1 sda1[0] sdd1[3] sdc1[2] sdb1[1]
530048 blocks [4/4] [UUUU]
bitmap: 0/65 pages [0KB], 4KB chunk
unused devices: <none>
mdadm --detail /dev/md0
Kod:
/dev/md0:
Version : 00.90.03
Creation Time : Wed Jan 15 22:04:23 2014
Raid Level : raid5
Array Size : 5840775936 (5570.20 GiB 5980.95 GB)
Used Dev Size : 1946925312 (1856.73 GiB 1993.65 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Thu Jan 23 12:34:11 2014
State : clean, degraded, recovering
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 64K
Rebuild Status : 37% complete
UUID : 14f8b7cf:D8914337:8ae869b8:5699e457
Events : 0.249110
Number Major Minor RaidDevice State
0 8 3 0 active sync /dev/sda3
1 8 19 1 active sync /dev/sdb3
2 8 35 2 active sync /dev/sdc3
4 8 51 3 spare rebuilding /dev/sdd3
i na koniec:
df
Kod:
Filesystem Size Used Available Use% Mounted on
/dev/ram0 32.9M 15.2M 17.7M 46% /
tmpfs 32.0M 692.0k 31.3M 2% /tmp
/dev/sda4 364.2M 301.0M 63.3M 83% /mnt/ext
/dev/md9 509.5M 109.4M 400.0M 21% /mnt/HDA_ROOT
/dev/md0 3.6T 3.3T 236.4G 94% /share/MD0_DATA
tmpfs 8.0M 0 8.0M 0% /var/syslog_maildir
UPDATE:
Chyba już wiem skąd ten drugi przebieg. Mianowicie 4 dysk został dodany do macierzy jednak nie udało się rozszerzanie pojemności (startuje i na 50% zatrzymuje się z komunikatem że rozszerzenie pojemności nie powiodło się) zamiast tego dostaje takie ostrzeżenia w logach:
Mógłby się ktoś wypowiedzieć na temat tego błędu?? Domyślam się że czeka mnie reklamowanie dysku a najgorsze jest to że mam go dopiero jakieś 3 dni :/
Ostatnio edytowane: