Witam,
Sytuacja jest następująca:
Konfiguracja: RAID 6, WD4000F9YZ 4.0TB (15+1 hot spare)
Wersja oprogramowania Firmware: 4.2.1 Build 20160601
Model serwera: QNAP TS-EC1679U-RP
Sytuacja jest następująca:
1. Wystąpił zanik zasilania.
2. Po uruchomieniu Qnap pracował poprawnie przez około 1 dzień.
3. w logach po 1 dniu pojawiło się [Volume Wolumen1, Pool 1] Start examination.
4. [Volume Wolumen1, Pool 1] Examination failed.
5. Obecnie Volumen ma status odmontowany, po kliknięciu "sprawdź" zwraca komunikat [Volume Wolumen1, Pool 1] Examination failed.
Skonfigurowany jest RAID6 WD4000F9YZ 4.0TB (15+1 hot spare), obecnie dwa zdemontowane do sprawdzenia.
próbowałem wykonać e2fsck -f -v -C 0 /dev/md1 ale wraca komunikat: Device or resource busy....
Wszystko wydarzyło się na firmware 4.1, obecnie jest 4.2.1 Build 20160601.
Wyczerpały mi się możliwości po całym dniu prób.
Wykonałem:
przydatne informacje:
logi:
2. Po uruchomieniu Qnap pracował poprawnie przez około 1 dzień.
3. w logach po 1 dniu pojawiło się [Volume Wolumen1, Pool 1] Start examination.
4. [Volume Wolumen1, Pool 1] Examination failed.
5. Obecnie Volumen ma status odmontowany, po kliknięciu "sprawdź" zwraca komunikat [Volume Wolumen1, Pool 1] Examination failed.
Skonfigurowany jest RAID6 WD4000F9YZ 4.0TB (15+1 hot spare), obecnie dwa zdemontowane do sprawdzenia.
próbowałem wykonać e2fsck -f -v -C 0 /dev/md1 ale wraca komunikat: Device or resource busy....
Wszystko wydarzyło się na firmware 4.1, obecnie jest 4.2.1 Build 20160601.
Wyczerpały mi się możliwości po całym dniu prób.
Wykonałem:
Code:
[~] # reboot
[~] # /etc/init.d/services.sh stop
[~] # /etc/init.d/opentftp.sh stop
[~] # /etc/init.d/Qthttpd.sh stop
[~] # umount /dev/md1
umount: /dev/md1: not mounted
[~] # e2fsck -f -v -C 0 /dev/md1
e2fsck 1.41.4 (27-Jan-2009)
e2fsck: Device or resource busy while trying to open /dev/md1
Filesystem mounted or opened exclusively by another program?
[~] # mount /dev/md1
mount: can't find /dev/md1 in /etc/fstab or /etc/mtab
Code:
[~] # cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md1 : active raid6 sdd3[1] sdn3[14] sdm3[13] sdl3[12] sdk3[19] sdj3[10] sdh3[9] sdi3[15] sdf3[7] sdg3[18] sdc3[21] sde3[4] sda3[3] sdb3[17]
50661827008 blocks super 1.0 level 6, 64k chunk, algorithm 2 [15/14] [_UUUUUUUUUUUUUU]
bitmap: 1/30 pages [4KB], 65536KB chunk
md256 : active raid1 sdn2[13](S) sdm2[12](S) sdl2[11](S) sdk2[10](S) sdj2[9](S) sdi2[8](S) sdh2[7](S) sdg2[6](S) sdf2[5](S) sde2[4](S) sda2[3](S) sdb2[2](S) sdd2[1] sdc2[0]
530112 blocks super 1.0 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md13 : active raid1 sdb4[26] sdn4[37] sdm4[36] sdl4[35] sdc4[24] sdj4[33] sdh4[32] sdf4[31] sdi4[38] sdk4[34] sde4[28] sda4[27] sdg4[30] sdd4[25]
458880 blocks super 1.0 [24/14] [U_UUUUUUUUUUUUU_________]
bitmap: 1/1 pages [4KB], 65536KB chunk
md9 : active raid1 sdb1[26] sdn1[37] sdm1[36] sdl1[35] sdc1[24] sdj1[33] sdh1[32] sdf1[31] sdi1[38] sdk1[34] sde1[28] sda1[27] sdg1[30] sdd1[25]
530048 blocks super 1.0 [24/14] [U_UUUUUUUUUUUUU_________]
bitmap: 1/1 pages [4KB], 65536KB chunk
unused devices: <none>
Code:
[~] # mdadm --detail /dev/md1
/dev/md1:
Version : 1.0
Creation Time : Tue Nov 25 11:52:05 2014
Raid Level : raid6
Array Size : 50661827008 (48314.88 GiB 51877.71 GB)
Used Dev Size : 3897063616 (3716.53 GiB 3990.59 GB)
Raid Devices : 15
Total Devices : 14
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Wed Jun 8 09:38:33 2016
State : active, degraded
Active Devices : 14
Working Devices : 14
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
Name : 1
UUID : fd75d517:062e9aa3:92885d07:d6919218
Events : 2894293
Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 51 1 active sync /dev/sdd3
17 8 19 2 active sync /dev/sdb3
3 8 3 3 active sync /dev/sda3
4 8 67 4 active sync /dev/sde3
21 8 35 5 active sync /dev/sdc3
18 8 99 6 active sync /dev/sdg3
7 8 83 7 active sync /dev/sdf3
15 8 131 8 active sync /dev/sdi3
9 8 115 9 active sync /dev/sdh3
10 8 147 10 active sync /dev/sdj3
19 8 163 11 active sync /dev/sdk3
12 8 179 12 active sync /dev/sdl3
13 8 195 13 active sync /dev/sdm3
14 8 211 14 active sync /dev/sdn3
211 Error 2016-06-07 04:54:47 System 127.0.0.1 localhost [Volume Wolumen1, Pool 1] Examination failed.
210 Information 2016-06-07 04:54:41 System 127.0.0.1 localhost [Volume Wolumen1, Pool 1] Start examination.
209 Information 2016-06-06 06:31:43 System 127.0.0.1 --- [Disk Speed] Weekly test is done.
208 Information 2016-06-05 18:40:26 System 127.0.0.1 localhost [Pool 1] Resyncing done with RAID Group 1.
207 Error 2016-06-05 18:40:21 System 127.0.0.1 localhost Failed to synchronize the time from NTP server.
206 Warning 2016-06-05 18:40:19 System 127.0.0.1 localhost [Antivirus] Failed to update virus definition.
205 Information 2016-06-05 18:40:18 System 127.0.0.1 localhost [Pool 1] Start resyncing with RAID Group 1.
204 Information 2016-06-05 18:39:08 System 127.0.0.1 localhost System started.
203 Warning 2016-06-05 18:39:07 System 127.0.0.1 localhost The system was not shut down properly last time.
202 Information 2016-06-05 12:15:12 System 127.0.0.1 localhost [ RAID Group 1 ] Data migration done from Drive 6 to Drive 1
201 Information 2016-06-04 20:36:22 System 127.0.0.1 localhost [ RAID Group 1 ] Start data migration from Drive 6 to Drive 1
200 Error 2016-06-04 20:36:15 System 127.0.0.1 localhost [Volume Wolumen1, Pool 1] Host: Drive6 failed.
199 Warning 2016-06-04 20:35:44 System 127.0.0.1 localhost [ RAID Group 1 ] Skip data migration from Drive 6 to Drive 1
198 Information 2016-05-30 06:32:36 System 127.0.0.1 --- [Disk Speed] Weekly test is done.
Konfiguracja: RAID 6, WD4000F9YZ 4.0TB (15+1 hot spare)
Wersja oprogramowania Firmware: 4.2.1 Build 20160601
Model serwera: QNAP TS-EC1679U-RP