Chciałem się podzielić swoim spostrzeżeniem: Q-RAID 1 wg mnie szybko zarżnie dyski - czy zgodzicie się ze mną?
Poniższe testy pokazuję na przykładzie:
QNAP TS-121
QTS 4.1.2
Dysk wewnętrzny: WD RED 3,5'' 1TB
Dysk zewnętrzny: WD RED 2,5'' podłączony przez kieszeń USB3.0.
Test 1
Tylko dysk wewnętrzny (bez podłączania dysku zewnętrznego i uruchamiania Q-RAID 1)
Poniżej wynik 5 min statystyk zapisu/odczytu na dysk.
Test 2
Podłączony dysk wewnętrzny, dysk zewnętrzny i uruchomienie synchronizacji Q-RAID 1
(Zwróćcie uwagę, że na przemian prezentowany jest aktualny stan IO dysków sda i sdq)
Test 3
Podłączony dysk wewnętrzny, dysk zewnętrzny i po zakończeniu synchronizacji Q-RAID 1 - normalny tryb pracy Q-RAID 1
(Zwróćcie uwagę, że na przemian prezentowany jest aktualny stan IO dysków sda i sdq)
Dodatkowo nie trudno zauważyć, że w przypadku włączonego Q-RAID 1 procesor wykorzystywany jest na ok. 50% swojej mocy na rzecz procesu rsync (Q-RAID 1)
Reasumując:
Jak dla mnie Q-RAID 1 może spełnia swoje zadanie (bo dane synchronizują się), ale boję się, że przy takiej pracy (ok. 18 h/dobę) to te dyski szybko mi padną. Mam rację?
Czy RAID-1 w np. TS-251 podobnie działa? Też jest taki narzut odczytu na dyski?
Poniższe testy pokazuję na przykładzie:
QNAP TS-121
QTS 4.1.2
Dysk wewnętrzny: WD RED 3,5'' 1TB
Dysk zewnętrzny: WD RED 2,5'' podłączony przez kieszeń USB3.0.
Test 1
Tylko dysk wewnętrzny (bez podłączania dysku zewnętrznego i uruchamiania Q-RAID 1)
Poniżej wynik 5 min statystyk zapisu/odczytu na dysk.
Bash:
[~] # iostat -x -d sda 10
extended device statistics
device mgr/s mgw/s r/s w/s kr/s kw/s size queue wait svc_t %b
sda 0 7 0.0 17.6 0.0 96.7 5.5 0.3 19.6 17.1 30
sda 0 7 0.0 16.7 0.0 93.5 5.6 0.3 19.9 17.2 29
sda 0 6 0.0 14.7 0.0 83.1 5.7 0.3 20.5 17.5 26
sda 0 6 0.0 16.7 0.0 91.5 5.5 0.3 20.3 17.2 29
sda 0 7 0.0 17.2 0.0 95.5 5.6 0.4 20.6 17.2 30
sda 0 7 0.0 17.3 0.0 95.5 5.5 0.3 19.7 17.4 30
sda 0 6 0.0 14.8 0.0 83.1 5.6 0.3 19.5 16.8 25
sda 0 6 0.0 14.9 0.0 83.5 5.6 0.3 20.1 17.3 26
sda 0 7 0.0 17.1 0.0 95.9 5.6 0.4 20.8 17.2 29
sda 0 7 0.0 17.7 0.0 98.3 5.6 0.4 19.9 16.8 30
sda 0 6 0.0 14.8 0.0 81.9 5.5 0.3 22.4 17.8 26
sda 0 7 0.0 17.5 0.0 97.1 5.6 0.4 20.3 17.9 31
sda 0 7 0.0 16.8 0.0 94.7 5.6 0.3 19.9 17.3 29
sda 0 7 0.0 16.3 0.0 92.7 5.7 0.3 21.1 17.6 29
sda 0 6 0.0 14.5 0.0 80.3 5.5 0.3 21.9 16.8 24
sda 0 7 0.0 18.2 0.0 98.7 5.4 0.4 19.6 17.1 31
sda 0 7 0.0 17.1 0.0 95.9 5.6 0.3 19.8 16.8 29
sda 0 6 0.0 16.1 0.0 89.5 5.6 0.4 21.6 17.8 29
sda 0 6 0.0 15.4 0.0 85.5 5.6 0.3 19.6 17.3 27
sda 0 7 0.0 17.8 0.0 98.7 5.6 0.4 19.9 17.4 31
sda 0 7 0.0 17.2 0.0 95.5 5.6 0.3 20.0 16.5 28
sda 0 6 0.0 14.4 0.0 79.5 5.5 0.3 21.0 16.7 24
sda 0 7 0.0 18.1 0.0 100.3 5.5 0.4 20.1 17.1 31
sda 0 7 0.0 17.0 0.0 95.5 5.6 0.4 21.4 17.4 30
sda 0 7 0.0 15.6 0.0 89.5 5.7 0.3 20.6 17.5 27
sda 0 5 0.0 14.4 0.0 77.9 5.4 0.3 21.5 17.6 25
sda 0 7 0.0 18.4 0.0 101.5 5.5 0.4 19.2 17.2 32
sda 0 7 0.0 17.5 0.0 97.9 5.6 0.4 20.7 16.8 29
sda 0 6 0.0 14.1 0.0 80.7 5.7 0.3 20.1 17.5 25
sda 0 6 0.0 17.0 0.0 92.7 5.5 0.4 21.0 17.2 29
Test 2
Podłączony dysk wewnętrzny, dysk zewnętrzny i uruchomienie synchronizacji Q-RAID 1
(Zwróćcie uwagę, że na przemian prezentowany jest aktualny stan IO dysków sda i sdq)
Bash:
[~] # iostat -x -d sda sdq 10
extended device statistics
device mgr/s mgw/s r/s w/s kr/s kw/s size queue wait svc_t %b
sda 34 22 11.3 20.3 387.0 183.3 18.0 0.7 21.4 11.6 37
sdq 3 30 5.3 1.6 33.4 153.7 27.1 0.9 135.4 1.9 1
sda 6 7 381.5 14.8 1545.6 85.8 4.1 1.7 4.3 1.4 56
sdq 31 53 349.8 10.2 1522.5 254.7 4.9 0.8 2.1 1.3 48
sda 13 9 416.4 44.1 1842.9 211.8 4.5 1.9 4.1 1.1 50
sdq 58 49 348.0 9.6 1622.6 235.8 5.2 3.1 8.6 1.0 34
sda 2 28 499.0 45.0 2004.6 292.9 4.2 2.5 4.5 0.9 49
sdq 83 55 419.5 9.5 2009.5 257.7 5.3 0.7 1.7 0.8 35
sda 2 23 444.7 51.6 1787.5 300.5 4.2 2.3 4.7 1.1 55
sdq 85 42 382.5 3.5 1869.9 180.2 5.3 0.6 1.5 0.8 32
sda 7 39 347.1 50.3 1414.7 355.6 4.5 2.3 5.9 1.5 60
sdq 71 45 262.5 6.9 1331.4 207.0 5.7 0.5 1.7 0.9 24
sda 5 7 409.7 71.0 1677.3 312.1 4.1 2.1 4.4 1.3 60
sdq 59 46 349.0 6.3 1630.6 209.0 5.2 0.8 2.3 1.2 42
sda 29 46 174.4 36.7 1434.5 330.1 8.4 15.0 70.9 3.3 69
sdq 76 35 127.5 14.1 814.7 782.8 11.3 0.8 5.4 1.2 17
sda 17 35 217.8 61.5 939.7 386.0 4.7 3.2 11.3 2.8 77
sdq 70 14 160.0 7.6 920.9 85.1 6.0 0.5 3.0 1.4 24
sda 8 33 149.5 41.1 643.6 295.7 4.9 3.2 16.9 3.8 73
sdq 37 29 115.3 8.3 607.3 150.6 6.1 0.6 4.5 3.1 39
sda 14 33 234.4 33.2 991.2 264.1 4.7 4.6 17.1 2.7 72
sdq 82 34 173.7 12.0 1022.0 183.4 6.5 2.7 14.8 2.7 49
sda 23 13 250.3 59.2 1132.2 288.2 4.6 2.9 9.2 2.2 69
sdq 52 48 204.4 15.5 1026.2 253.1 5.8 1.3 6.0 2.3 50
sda 13 24 156.9 46.1 815.4 277.7 5.4 3.1 15.4 3.8 76
sdq 61 43 108.8 14.0 681.4 229.4 7.4 2.3 18.8 3.7 45
sda 3 31 175.2 36.8 721.0 268.9 4.7 12.8 60.2 3.4 73
sdq 64 35 129.4 14.7 764.4 197.4 6.7 2.7 19.0 3.0 43
sda 5 11 172.4 56.8 710.2 269.3 4.3 4.8 16.3 3.3 77
sdq 41 32 129.5 12.7 689.5 180.6 6.1 0.8 5.9 2.9 41
sda 4 34 230.2 37.3 958.3 284.9 4.6 8.1 33.3 3.0 81
sdq 37 34 185.6 14.5 891.8 192.2 5.4 1.0 4.9 2.8 56
sda 7 18 266.1 48.2 1095.2 262.9 4.3 2.1 7.5 2.3 71
sdq 45 42 226.8 11.3 1087.8 211.4 5.5 1.9 8.0 2.4 57
sda 5 49 306.2 27.5 1262.0 303.3 4.7 4.6 13.7 2.1 71
sdq 65 42 262.1 14.9 1305.9 229.4 5.5 3.5 12.7 1.2 33
sda 14 28 288.5 50.0 1199.4 310.1 4.5 1.8 5.3 2.1 72
sdq 53 29 230.6 4.4 1131.9 133.9 5.4 0.4 1.8 1.3 30
sda 5 40 308.4 41.1 1276.0 321.4 4.6 7.6 21.9 2.0 68
sdq 34 41 244.9 13.9 1113.7 218.8 5.1 4.5 17.3 2.4 61
sda 0 38 254.4 18.3 1026.7 225.4 4.6 1.7 6.3 1.8 48
sdq 14 49 201.6 12.1 860.5 244.2 5.2 4.3 20.1 4.1 87
sda 3 23 120.4 33.5 505.7 225.0 4.7 4.1 26.4 4.6 71
sdq 19 48 123.7 16.4 570.1 255.7 5.9 1.1 8.2 4.9 69
sda 4 32 260.4 29.5 1067.2 205.8 4.4 4.6 7.8 1.9 56
sdq 77 56 181.6 19.8 1036.8 301.3 6.6 2.0 9.8 3.1 63
sda 3 20 143.9 39.5 615.6 259.4 4.8 9.7 42.1 4.6 83
sdq 38 14 113.0 1.0 603.4 60.2 5.8 0.3 2.3 1.7 20
sda 10 23 119.0 40.5 655.5 266.3 5.8 23.5 160.9 5.4 86
sdq 52 11 85.1 5.7 550.3 65.6 6.8 0.6 6.9 3.3 30
sda 83 19 250.5 26.2 1379.2 165.4 5.6 3.4 17.0 2.3 64
sdq 64 44 121.3 16.7 739.5 243.8 7.1 6.2 44.8 3.4 47
sda 18 10 62.9 26.6 324.6 161.2 5.4 3.9 52.5 6.2 56
sdq 151 4 80.6 14.9 935.8 76.3 10.6 1.1 11.7 3.8 36
sda 9 8 238.6 16.5 1009.3 95.7 4.3 1.0 3.8 1.5 39
sdq 125 1 109.2 1.0 945.7 6.8 8.6 0.2 1.8 1.0 11
sda 8 29 316.8 45.2 1301.6 292.9 4.4 6.4 17.6 1.8 67
sdq 25 19 277.7 1.3 1211.5 81.1 4.6 0.3 1.1 0.9 26
sda 7 47 425.1 29.9 1771.3 303.7 4.6 2.1 4.6 1.3 58
sdq 46 39 377.8 13.2 1692.9 207.0 4.9 1.3 3.4 0.6 24
Test 3
Podłączony dysk wewnętrzny, dysk zewnętrzny i po zakończeniu synchronizacji Q-RAID 1 - normalny tryb pracy Q-RAID 1
(Zwróćcie uwagę, że na przemian prezentowany jest aktualny stan IO dysków sda i sdq)
Bash:
[~] # iostat -x -d sda sdq 10
extended device statistics
device mgr/s mgw/s r/s w/s kr/s kw/s size queue wait svc_t %b
sda 4 4 236.8 3.0 982.6 24.6 4.2 0.8 3.3 0.8 19
sdq 156 0 72.8 0.0 923.9 0.0 12.7 0.7 8.9 7.7 56
sda 28 7 342.1 2.2 1602.4 33.6 4.8 1.9 5.6 0.9 32
sdq 190 66 172.3 2.4 1456.5 274.5 9.9 0.6 3.4 2.0 35
sda 3 0 602.1 2.2 2420.8 9.6 4.0 1.0 1.7 0.4 24
sdq 165 1 483.1 1.1 2597.4 9.2 5.4 0.6 1.2 0.9 42
sda 15 6 416.4 4.8 1761.5 37.7 4.3 1.0 2.4 0.5 21
sdq 359 0 162.9 0.0 2108.7 0.0 12.9 0.5 2.9 1.7 27
sda 4 2 378.7 4.4 1541.7 23.9 4.1 0.7 1.7 0.6 21
sdq 292 0 99.3 0.0 1586.0 0.0 16.0 0.4 3.6 2.7 27
sda 6 2 433.2 2.4 2961.4 16.6 6.8 1.6 3.8 0.8 33
sdq 131 0 250.6 0.0 1529.3 0.0 6.1 0.3 1.4 1.0 25
sda 0 1 603.3 1.8 2472.0 10.4 4.1 1.6 2.6 0.5 33
sdq 105 0 497.3 0.3 2411.6 1.6 4.8 0.5 1.1 0.8 41
sda 3 0 518.1 1.4 2373.8 5.6 4.6 1.3 2.5 0.7 35
sdq 61 0 481.4 0.0 2170.2 0.0 4.5 0.5 1.1 0.9 44
sda 0 0 602.8 1.3 2422.4 5.2 4.0 1.4 2.4 0.4 26
sdq 101 0 484.4 0.0 2343.7 0.0 4.8 0.7 1.5 1.1 54
sda 0 0 605.2 0.4 2460.3 1.6 4.1 1.4 2.2 0.3 18
sdq 100 0 504.8 0.0 2420.4 0.0 4.8 0.5 0.9 0.7 36
sda 0 0 616.5 0.9 2656.6 3.6 4.3 1.5 2.4 0.5 29
sdq 117 0 517.4 0.0 2537.5 0.0 4.9 0.4 0.8 0.6 33
sda 0 0 530.1 0.5 2332.9 1.6 4.4 1.4 2.7 0.6 30
sdq 95 0 429.1 0.0 2097.9 0.0 4.9 0.5 1.3 1.1 48
sda 0 0 399.5 0.6 2328.9 2.0 5.8 1.8 4.5 0.9 35
sdq 115 1 235.9 5.3 1405.0 611.4 8.4 0.9 3.5 1.0 24
sda 0 0 353.2 0.6 1443.9 2.0 4.1 1.1 3.2 0.9 32
sdq 96 0 226.7 0.8 1293.9 3.2 5.7 0.6 2.8 2.4 55
sda 16 0 349.5 0.5 1814.0 2.0 5.2 1.8 5.2 1.0 35
sdq 88 0 268.8 0.0 1427.1 0.0 5.3 0.8 2.9 2.4 64
sda 3 0 312.9 1.3 1309.9 4.4 4.2 1.1 3.6 1.3 41
sdq 95 0 210.1 0.0 1222.4 0.0 5.8 0.8 3.8 3.2 67
sda 0 0 374.5 0.5 1516.5 1.6 4.0 1.1 2.9 0.9 33
sdq 91 0 267.8 0.0 1435.0 0.0 5.4 0.8 2.9 2.6 69
sda 2 0 373.7 0.5 1700.0 1.6 4.5 1.2 3.3 0.8 30
sdq 54 0 279.6 0.0 1333.9 0.0 4.8 0.8 3.0 2.6 74
sda 0 0 435.6 0.4 1844.6 1.6 4.2 1.2 2.9 0.9 39
sdq 86 0 395.0 0.0 1924.5 0.0 4.9 0.4 1.0 0.8 32
sda 0 0 505.6 0.6 2047.6 2.0 4.0 1.2 2.4 0.4 23
sdq 65 0 355.3 0.0 1682.7 0.0 4.7 0.7 2.0 1.7 60
sda 0 0 240.7 1.0 978.3 3.6 4.1 0.7 2.9 0.6 15
sdq 20 0 216.6 0.0 945.5 0.0 4.4 0.9 4.1 3.9 84
sda 0 0 233.0 0.5 931.9 1.6 4.0 0.7 2.9 0.7 17
sdq 50 0 203.2 0.0 1013.8 0.0 5.0 0.9 4.3 3.9 78
sda 2 0 220.0 0.5 1191.6 1.6 5.4 1.8 8.1 2.8 62
sdq 49 0 147.5 0.0 790.4 0.0 5.4 0.3 2.1 1.9 28
sda 15 3 216.7 8.6 1061.3 47.2 4.9 1.8 7.8 2.8 63
sdq 77 0 114.3 0.0 770.8 0.0 6.7 0.5 4.8 3.5 39
sda 9 0 392.7 2.3 1809.9 10.0 4.6 2.8 7.1 0.7 28
sdq 90 0 150.3 0.0 952.6 0.0 6.3 0.5 3.5 2.7 40
sda 3 2 235.8 4.6 971.8 23.2 4.1 0.5 2.0 0.5 11
sdq 253 0 140.4 0.0 1600.8 0.0 11.4 0.7 4.9 2.1 30
sda 0 0 566.7 0.8 2274.1 3.0 4.0 1.2 2.0 0.4 25
sdq 45 0 478.6 0.0 2094.3 0.0 4.4 0.4 0.8 0.7 32
sda 6 1 737.5 3.7 3282.4 20.4 4.5 1.0 1.4 0.3 24
sdq 34 0 662.8 0.0 2786.4 0.0 4.2 0.3 0.5 0.4 28
sda 2 1 628.6 4.0 2555.0 19.6 4.1 1.8 2.8 0.6 38
sdq 103 0 534.1 0.0 2551.8 0.0 4.8 0.5 0.9 0.7 37
sda 5 2 581.7 4.5 2543.5 24.8 4.4 2.4 4.1 1.0 58
sdq 90 0 400.4 0.0 1963.6 0.0 4.9 0.6 1.6 1.1 46
Dodatkowo nie trudno zauważyć, że w przypadku włączonego Q-RAID 1 procesor wykorzystywany jest na ok. 50% swojej mocy na rzecz procesu rsync (Q-RAID 1)
Reasumując:
Jak dla mnie Q-RAID 1 może spełnia swoje zadanie (bo dane synchronizują się), ale boję się, że przy takiej pracy (ok. 18 h/dobę) to te dyski szybko mi padną. Mam rację?
Czy RAID-1 w np. TS-251 podobnie działa? Też jest taki narzut odczytu na dyski?