Wiedza Fakty – czy warto kupić dysk SSD klasy Enterprise do serwera NAS? Recenzja Kingston DC400 SSD


Fakty – czy warto kupić dysk SSD klasy Enterprise do serwera NAS?
Autor: Silas, Mariusz - QNAP Systems, Inc.

Kingston-DC400-Header.jpg



Recenzja Kingston DC400 SSD
Dyski klasy korporacyjnej oferowane są przez największych producentów dysków SSD i stosowane na całym świecie. Klasa ta została zaprojektowania dla zastosowań wymagających większego obciążenia używanego przez centra danych, firmy hostingowe, a także w bankowości i dla operacji typu OLTP. Dziś przyjrzymy się wydajności i prędkości dysków SSD z klasy Enterprise i opiszemy ważne różnice w stosunku do dysków SSD klasy klienckiej. Odpowiemy także na pytanie czy warto – ba, czy powinno się stosować dyski klienckie SSD, dedykowane dla komputerów PC w macierzach dyskowych tj. QNAP i pracy w RAID. Szukając odpowiedzi, przyjrzymy się ofercie dysków SSD Enterprise Kingston z serii DC400 i ich parametrom oraz wydajności w pracy w serwerach QNAP.

Kingston DC400 480GB blister.png

Najczęściej popełniane błędy
Częstym problemem użytkowników jest niepoprawny wybór dysków SSD do pracy w grupie współtworzącej macierz dyskową RAID. Użytkownicy nie zdają sobie sprawy, że dyski klienckie SSD nie zapewniają stałej prędkości losowych operacji wejścia/wyjścia (IOPS). Użytkownicy czytając dostępne w Internecie recenzje, artykuły sponsorowane z pomiarami prędkości dysków innych producentów nie biorą pod uwagę spadku wydajności z upływem czasu użytkowania takiego dysku SSD wynikającego z trzech kluczowych elementów: wydajności, wytrzymałości i niezawodności.

Dlaczego SSD Enterprise? Zwykły „SSD-ek” też OK!
W przeciwieństwie do klienckich dysków SSD, które są zoptymalizowane pod kątem szczytowej wydajności tylko w pierwszych kilku sekundach operacji, oferowane przez firmę Kingston dyski korporacyjne SSD z serii DC400 zapewniają wyższą niezmienną wydajność dzięki wykorzystaniu dodatkowych bloków pamięci (OP). Co ciekawe i bardzo istotne dyski SSD Kingston DC400 klasy Enterprise wyposażone są w rozwiązania techniczne umożliwiające odzyskiwanie uszkodzonych bloków z wykorzystaniem parzystości danych (podobnie do RAID) przechowywanych w innych, dodatkowych segmentach pamięci.
Cykl pracy
Dyski SSD typu Enterprise różnią się od konsumenckich dysków SSD także cyklem pracy. W zwykłym dysku SSD przewiduje się maksymalny czas pracy 8 godzin w ciągu dnia, a właściwie cykl pracy 20/80 – czyli aktywność przez 20% czasu i 80% w stanie bezczynności lub uśpienia. Natomiast dyski SSD Kingston DC400 klasy korporacyjnej zostały zaprojektowane, aby obsługiwać nieustające obciążenie operacjami odczytu i zapisu w scenariuszach typowych dla serwerów i centrów danych – czyli pracy 24 godziny na dobę i 7 dni w tygodniu.


RAID na zwykłym SSD?
Dla serwerów, macierzy dyskowych tj. QNAP absolutnie odradza się używania klienckich dysków SSD nawet w pojedynczych konfiguracjach typu Single Disk, a zwłaszcza w RAID w przeciwnym razie będzie to skutkować dramatycznym spadkiem wydajności, a w rezultacie awarią. Stała wydajność i prędkość zapisywanych danych oraz praca 24/7 jest niezbędna do zachowania poprawnych i efektywnych rezultatów RAID 0, 1+0, 1 ale także dla RAID 5 i 6. Dla właśnie takich celów zostały zaprojektowane dyski SSD Kingston z serii DC400, które oferują niezmiennie wydajną pracę i niskie opóźnienia.


Kingston DC400 480GB modul strona 1.png

Dyski SSD Kingston DC400 zostały zaprojektowane z wykorzystaniem 15nm układów nieulotnej pamięci flash NAND typu MLC (multi-level cell), które przechowują w jednej komórce trzy bity. W dyskach SSD z serii DC400 układy flash NAND są obsługiwane przez cztero-rdzeniowy kontroler Phison S10 wyposażony w rozwiązania techniczne dedykowane dla rynku korporacyjnego.

Kingston-SSD-Manager-1.jpg
Ponadto seria DC400 umożliwia przez użytkownika konfigurację ilości bloków nadmiarowych – zwanymi też rezerwowymi (Over-provisioning), przez co dysk SSD można manualnie dostosować do konkretnego scenariusza pracy, np. dla centrów danych zwiększając jego pojemność, lub też zwiększając ilość bloków nadmiarowych, aby zapewnić większą niezawodność w zastosowaniach np. transakcyjnych OLTP. Za pomocą narzędzia o nazwie Kingston SSD Manager (KSM) można zwiększyć ilość bloków nadmiarowych (Over-Provisioning) z fabrycznych 7% do 28% zwiększając wydajność kosztem niezawodności i wytrzymałości dysku SSD. Ponadto za pomocą narzędzia KSM można także zarządzać opcjami bezpieczeństwa TCG Opal i IEEE 1667, monitorowanie kondycji dysku SSD, bezpiecznie wymazać dane i zaktualizować oprogramowanie. Seria DC400, to nie tylko rozwiązanie dla centrum danych, ale także niezawodny nośnik SSD do podstawowych operacji tj. rozruch i działanie systemu operacyjnego oraz uruchomionych na nim aplikacji.

Kingston-SSD-Manager-2.jpg Kingston-SSD-Manager-3.jpg




Kingston DC400 480GB modul strona 2.png




Kompatybilność i funkcje SSD w QNAP NAS
ModelKompatybilność z QNAPS.M.A.R.T. MonitoringS.M.A.R.T. Self-TestSSD Bezpieczne wymazanie danychSSD TrimDZAT (Deterministic Zeros After Trim)
SSD Kingston KC1000 480 GB Tak Tak Nie Nie Tak Nie
SSD Kingston DC400 480 GB Tak TakTakTakTakTak
SSD Kingston SM2280 M.2 480 GB Tak TakTakTakTakTak



Testy wydajności
Popatrzmy teraz na wyniki testów, którym poddane były dyski SSD Kingston DC400...

Kingston DC400 odczyt sekwencyjny.png


Kingston DC400 IOPS odczyt.png


Opis: Testy wydajności odczytu sekwencyjnego i IOPS przeprowadzone bezpośrednio na serwerze QNAP TS-877 Ryzen 5 1600 48GB DDR4 RAM za pomocą funkcji dostępnej w oprogramowaniu QNAP QTS 4.3 w panelu zarządzania pamięcią masową i migawkami.

Kingston DC400 import maszyny wirtualnej w QNAP Virtualization Station.png


Kingston DC400 start VM Windows Server 2016 w QNAP Virtualization Station.png


Opis: 1) Import maszyny wirtualnej polega na odczycie z tego samego dysku co docelowy dysk wyeksportowanego obrazu .qvm o objętości 120 GB i utworzenie maszyny wirtualnej z obrazem dysku o pojemności 384 GB. 2) Czas startu maszyny VM z 1 GB RAM tylko wykorzystując SWAP na HDD do pracy.


Testy aplikacji multimedialnych Plex i Emby:
Kingston DC400 skanowanie biblioteki Plex.png


Kingston DC400 skanowanie biblioteki Emby.png


Test przepustowości I/O i najważniejszy test wydajności transakcji OLTP w bazach danych MySQL przeprowadzony na maszynie wirtualnej VM Ubuntu 16.
Kingston DC400 wydajnosc IO.png


Kingston DC400 transkacje OLTP.png



Surowe wyniki testów transakcji OLTP w bazie danych MySQL - Raport napisał:
HDD Seagate IronWolf 12 TB:
Kod:
OLTP test statistics:
    queries performed:
        read:                            94192
        write:                           33633
        other:                           13453
        total:                           141278
    transactions:                        6725   (111.99 per sec.)
    deadlocks:                           3      (0.05 per sec.)
    read/write requests:                 127825 (2128.71 per sec.)
    other operations:                    13453  (224.04 per sec.)

Test execution summary:
    total time:                          60.0480s
    total number of events:              6725
    total time taken by event execution: 360.2237
    per-request statistics:
         min:                                 24.83ms
         avg:                                 53.56ms
         max:                                306.26ms
         approx.  95 percentile:             100.45ms

Threads fairness:
    events (avg/stddev):           1120.8333/3.80
    execution time (avg/stddev):   60.0373/0.01


SSD Kingston KC1000 NVMe 480 GB:
Kod:
OLTP test statistics:
    queries performed:
        read:                            1011192
        write:                           361058
        other:                           144427
        total:                           1516677
    transactions:                        72199  (1203.24 per sec.)
    deadlocks:                           29     (0.48 per sec.)
    read/write requests:                 1372250 (22869.40 per sec.)
    other operations:                    144427 (2406.97 per sec.)

Test execution summary:
    total time:                          60.0038s
    total number of events:              72199
    total time taken by event execution: 359.6366
    per-request statistics:
         min:                                  2.23ms
         avg:                                  4.98ms
         max:                                 46.21ms
         approx.  95 percentile:               7.66ms

Threads fairness:
    events (avg/stddev):           12033.1667/22.39
    execution time (avg/stddev):   59.9394/0.00


SSD Kingston DC400 SATA3 480 GB:
Kod:
OLTP test statistics:
    queries performed:
        read:                            322028
        write:                           114922
        other:                           45968
        total:                           482918
    transactions:                        22966  (382.69 per sec.)
    deadlocks:                           36     (0.60 per sec.)
    read/write requests:                 436950 (7281.01 per sec.)
    other operations:                    45968  (765.98 per sec.)

Test execution summary:
    total time:                          60.0123s
    total number of events:              22966
    total time taken by event execution: 359.9278
    per-request statistics:
         min:                                  7.47ms
         avg:                                 15.67ms
         max:                                104.48ms
         approx.  95 percentile:              24.37ms

Threads fairness:
    events (avg/stddev):           3827.6667/6.05
    execution time (avg/stddev):   59.9880/0.00




Jeśli zerkniemy na wyniki dysków SSD Kingston DC400 i KC1000, to zobaczymy wzrost prędkości operacji nie tylko na operacjach I/O kopiowania danych, ale także zobaczymy wzrost wydajności aplikacji, maszyn wirtualnych i przede wszystkim ogromny wzrost operacji na bazach danych. Dzieje się tak ponieważ dyski SSD minimalizują opóźnienia odczytu/zapisu przez co procesor nie musi przechodzić w stan spoczynku lub oczekiwania na dalsze operacje.



Ocena końcowa

Zalety

  • Doskonałe ogólne wyniki
  • Obsługa wszystkich funkcji SSD w serwerach QNAP NAS
  • Konfigurowalny Over-Provisioning
  • 5 lat gwarancji

Wady
  • Programowe zabezpieczenie przed utratą zasilania
    (za cenę 2.5-3x droższą niż konsumencki dysk SSD można by wymagać kondensatorów zabezpieczających przed utratą zasilania)



Podsumowując...
Cena, którą przychodzi nam płacić za oferowaną 5-krotną większą wytrzymałość dysków Enterprise SSD Kingston DC400 w stosunku do dysków SSD klienckich jest absolutnie uzasadniona. Seria DC400 to solidne dyski SSD o stabilnej wydajności, a 5 lat gwarancji i konfigurowalny OP sprawia, że jest to idealne rozwiązanie dla firm i przedsiębiorstw gdzie wymagana jest wytrzymała i niezawodna praca, ale także dla entuzjastów IT ceniących sobie niezawodną, stabilną i cichą pracę systemu przez wiele lat.



Dostępne modele
Seria dysków SSD Kingston DC400 została podzielona na dwa warianty. Modele zoptymalizowane pod kątem odczytu i modele zoptymalizowane pod kątem wydajności. Te pierwsze dostępne są wyłącznie na zamówienie i występują obecnie w wersji o pojemności 1800 GB. Natomiast drugi wariant, który jest dostępny na rynku „od ręki” to modele występujące w wersjach: 480 GB, 960 GB i 1600 GB.

Kingston DC400 Header Product View.jpg




Ciekawostka
Kingston-KC1000.png

W porównaniu pokazaliśmy też wyniku z dysku SSD dedykowanego dla firm Kingston KC1000 zbudowanego z pamięci nieulotnych NAND typu MLC pracującymi pod kontrolą procesora Phison PS5007-E7. Kingston KC1000 występuje w standardzie M.2 2280 z interfejsem NVMe™ PCIe Gen 3.0 x 4 linie i do serwera QNAP jest przyłączony za pomocą karty rozszerzeń QNAP QM2-2P-384. Na temat tego dysku SSD wrócimy w artykule „How-To Ready-To-Go 15min Własny, profesjonalny hosting Mail i WWW z opcją dalszej odsprzedaży w QNAP”, który opublikujemy w przed Świętami Bożego Narodzenia 2018.



Jak został wykonany test wydajności I/O?
Po zalogowaniu przez SSH do QNAP uruchomiono polecenie:
Bash:
qcli_storage -t

Jak został wykonany test transakcji OLTP?
Kod źródłowy procedury testowej - Silas Mariusz napisał:
Na uruchomionej w QNAP maszynie wirtualnej z Ubuntu 14.04 wykonana została poniższa procedura:
Bash:
# Zainstaluj sysbench
apt-get update ; apt-get install sysbench -y

MYSQL_USER=root            # wprowadź dane logowania admina MySQL
MYSQL_PASSWORD=admin       # wprowadź hasła dla admina MySQL

MYSQL_DBNAME=dbtest-qnap
CMD_MYSQL="mysql -u ${MYSQL_USER} -p${MYSQL_PASSWORD} -D ${MYSQL_DBNAME}"

# Utworz baze danych na ktorej przeprowadzimy test
echo "create database ${MYSQL_DBNAME};" | $CMD_MYSQL

# Przygotuj baze danych
sysbench --test=oltp --oltp-table-size=1000000 \
         --mysql-db=${MYSQL_DBNAME} \
         --mysql-user=${MYSQL_USER} \
         --mysql-password=${MYSQL_PASSWORD} \
         prepare

# Uruchom test wydajnosci transakcji OLTP
sysbench --test=oltp --oltp-table-size=1000000 --oltp-test-mode=complex \
         --oltp-read-only=off --num-threads=6 --max-time=60 --max-requests=0 \
         --mysql-db=${MYSQL_DBNAME} \
         --mysql-user=${MYSQL_USER} \
         --mysql-password=${MYSQL_PASSWORD} \
         run

# Usun baze jesli chcesz wykonac kolejny test...
echo "drop database dbtest;" | $CMD_MYSQL
 
A ten artykuł to nie jest sponsorowany?
Pamięci MLC przechowujące trzy bity pamięci w komórce...jak się łatwo domyślić, są to pamięci TLC, ale takie pamięci są nie tyle powodem do dumy, co do stresu, by czasem coś nie padło. Tym bardziej, że są to 15 nm Toshiby, które, gdyby nie Bad Column Management, nie byłyby w stanie opuścić fabryki. Tak, widzę na zdjęciu grawerkę Kingstona, ale równie dobrze na pamięciach można napisać cokolwiek innego. I założę się, że jeśli wysłać do tych układów 0x90, to w odpowiedzi dostaniemy ID zaczynający się od 98.
I do tego Phison znany z najtańszych Goodramów. Mi osobiście bardzo dobrze znany, bo to popularne i często padające modele. Duża w tym zasługa nie tyle kontrolera, co układów pamięci Toshiby TLC 15 nm. Żeby nie było - wszystkie TLC się sypią bardziej niż MLC...ale Toshiba niestety jest liderem.
Pewnie jest różnica w oprogramowaniu układowym. Pozostaje mieć nadzieję, że to różnica mocno na korzyść, bo musi być jakiś powód, by za te nośniki przepłacać, ale o tym będziemy mogli merytorycznie porozmawiać za jakieś dwa lata. W każdym razie od strony fizycznej ten model nie budzi mojego zaufania.
 
Ja nie mam wątpliwości że jest sponsorowany, ale to nie zmienia faktu że dyski enterprise są zdecydowanie lepszym wyborem do zastosowań serwerowych, w których obciążenie są zupełnie inne niż w desktopach czy nawet workstation. I nie chodzi tu nawet o typ zastosowanych NANDów - bardzo dużo obecnie oferowanych SSD enterprise o trwałości na poziomie 1DWPR albo nawet większej wykonywanych jest z pamięci TLC i nie przeszkadza im to być lepszym wyborem do NASa i np. pracy w raid niż dysk konsumencki na teoretycznie lepszych pamięciach MLC (nie dość że nawet te najlepsze często mają wytrzymałość na poziomie nie większą niż 0.3DWPR, to jeszcze tracą stabilność w pełnym obciążeniu, mają nieprzewidywalną latencję, nie mają zabezpieczenia przed zanikiem danych, czy ochrony danych w całym w całym cyklu pracy). Poza tym dyskom konsumenckim zdecydowanie nie służy praca bez TRIM, podczas gdy serwerowym nie przeszkadza to zbytnio, ponieważ mają najczęściej większy OP zdecydowanie inaczej zestrojony GC. Także jeśli ktoś chce sobie zrobić dobrze, to naprawdę warto wybrać dedykowany do pracy serwerowej SSD ;)
 
DWPR, MTBF itp. parametry, to przeważnie marketingowe bzdury. Dla przykładu dla DC400 znalazłem informację, że MTBF wynosi 2 mln godzin. To ponad 200 lat. W tym czasie procesy utleniania spowodują, że układy same będą odpadać od PCB, a jeszcze wcześniej dyfuzja wyrwie w izolatorach bramek pływających takie dziury, że elektrony zamiast siedzieć w bramce i trzymać dane swobodnie rozbiegną się po całym układzie. Ludzie w to wierzą, bo 2 mln godzin, to liczba potężna i robiąca wrażenie, a jednocześnie mocno abstrakcyjna, ale gdyby zamiast tych 2 mln godzin wpisać 228 lat parametr w oczach przeciętnego użytkownika straciłby na wiarygodności, bo jest sprzeczny z powszechnym doświadczeniem, że urządzenia psują się znacznie szybciej.
To samo dotyczy parametrów odwołujących się do zapisów. Po pierwsze, to wartości teoretyczne, oparte przeważnie na dość optymistycznych założeniach. Po drugie, mimo postępu w rozwoju algorytmów zużycia, w dalszym ciągu często zdarzają się sytuacje, że kontroler odcina dostęp do NANDów, bo awarii uległ jakiś pojedynczy blok, choć pozostałym sporo jeszcze brakuje do wyczerpania założonego resursu. To jest także przyczyna, dla której nie udało się stworzyć narzędzi z dostateczną wiarygodnością przewidujących nadciągającą awarię. Dziś możemy mieć sprawny dysk z oceną żywotności na poziomie powyżej 90 %, a jutro TC58NC1000 i 2 MB pojemności. Po trzecie - użytkownicy często źle liczą te zapisy. Kiedy np. poprawią w jakimś dokumencie literówkę, myślą, że zapisali parę bajtów. W praktyce przepisaniu ulega cały blok liczący 258 (tak - 258, nie 256, chyba po to, by się ciekawiej odzyskiwało dane:)) stron po 16 kB. Więc z miejsca mamy ponad 4 MB zapisu. Do tego dochodzą nam operacje na plikach tymczasowych, metadanych systemu plików (bo przecież trzeba zapisać datę i godzinę edycji). Fakt, że trochę pomaga przetrzymywanie pewnych rzeczy w buforze i parę innych sztuczek, ale zapisy lecą o wiele szybciej, niż by to się mogło wydawać.
Ale fakt faktem więcej nadmiarowych bloków i lepsze rozwiązania zaszyte w oprogramowaniu wewnętrznym pomagają. Przynajmniej w eksploatacji - bo w przypadku awarii większa złożoność algorytmów nie ułatwia wyciągania danych:)
 
Ale to nie do końca tak;
MTBF to wartość określająca statystycznie prawdopodobieństwo przerwy w pracy spowodowanej awarią. Nie wdając się w szczegóły można najprościej dla przeciętnego użytkownika przyjąć ze dysk który ma MTBF 2mln a drugi 0.8mln godzin, to prawdopodobieństwo awarii tego pierwszego jest na poziomie 0,438% a tego drugiego 1,095% - czyli różnica jest istotna i łatwa do zrozumienia dla każdego.
DWPD to tez nie jest teoria; to wartość ole razy w ciągu doby możesz w pełni zapisać całą pojemność dysku przez okres gwarancji zanim najbardziej obciążony NAND osiągnie kres swoich gwarantowanych (dla założonej retencji) cyklie kasowania. W dyskach konsumenckich zamiast tego stosuje się TBW - czyli jaką ilość danych możemy zapisać zanim najsłabsza komórka osiągnie kres deklarowanych cykli kasowania. To znów wymagane byłby rozwinięcie - to że NAND ma np. deklarowany żywot 1000-1500P/E (np. TLC) nie oznacza że po przekroczeniu tej wartości padnie. Oznacza to natomiast tyle, że retencja danych nie będzie się już mieściła w normach. Czyli w określonych warunkach nie będzie można z niego odczytać informacji. Czyli jego praca może nie być stabilna - dlatego niektóre dyski enterprise, po przekroczeniu wartości granicznej ustalonej przez producenta przechodzą w stan tylko do odczytu. Bo założenie jest prost - lepsze jest pewne zgłoszenie końca pracy niż praca niepewnego urządzenia. Z tego samego powodu niektóre awarie - statystycznie takie się przecież zdarzają - powodują zablokowanie dysku uniemożliwające jego dalszą normalną pracę. Ale znów - częściej się to zdarza w dyskach "serwerowych" niż desktopowych, ponieważ taka jest polityka - lepiej żeby urządzenie przestało działać i wymagało wymiany, niż żeby działało niepewnie, niestabilnie. Warto także dodać że co piszesz o zużyciu, blokach i niezrozumieniu zużycia przez przeciętnego użytkownika to prawda, ale właśnie tu znów jest różnica między dyskami enterprise i konsumenckimi - dyski enterprise optymalizowane są tak, żeby wzmocnienie zapisu (wynikające z tego o czym pisałeś - czyli wielkość zapisywanych danych, metadane, wielkość bloki itp) było jak najmniejsze, bo dysk optymalizowany jest do pracy na małych losowych porcjach danych. wystarczy spojrzeć jaki jest profil danych dla których podaje się endurance dla dysków serwerowych: 67% danych to bloki 4KB, 10% 8KB, 3% 32KB, 3% 64KB, reszta to bloki mniejsze niż 4KB - wszystko "randomowe" czyli zero lubianych przez dyski danych sekwencyjnych w duzych blokach. Widzisz różnicę ? Także współczynnik równomierności zapisu komórek więc to jak znacząco różni się "zużycie" tej najbardziej eksploatowana komórka do tej najmniej eksploatowanej, jest różna w obu "typach" SSDków, ponieważ te konsumenckie zakładają działanie TRIM i są dostrajane pod kątem osiągów w tym środowisku, natomiast serwerowe z założenia mogą pracować bez TRIM bez wpływu na ich trwałość anie wydajność. Bo ich algorytmy zbierania śmieci nie działają tylko kiedy dysk jest w bezczynności, a cały czas - w trakcie pracy dysku.
Wielkość bloku różna od "logicznej" dla informatyki wielkości 256, jest też zrozumiała bo bloki zawierają miejsc na dane nadmiarowe. Nie wiem natomiast czy zawsze 258 - wydaje mi się ze to zależy od modelu i w niektórych może być bitów nadmiarowych więcej. Wiem że nie rozwinąłem tematu w wystarczający sposób ale nie chcę przynudzać. Do tego niekorygowane błędy odczytu w dyskach korporacyjnych max wartość 10 ^^-16 (często dyski te mają deklarowane 10^^-17) w dyskach konsumenckich 10^^-15; podtrzymanie zasilania w przypadku awarii zasilania z prawdziwego zdarzenia ( występuje w konsumenckich crucial m500, m550, mx100, mx200 i chyba mx300, bliźniaczychh adata-ac i ale nie w takiej postaci jak w korporacyjnych dyskach), ochrona danych "end-to-end data protection" i pewnie wiele innych. To wszystko decyduje o bezpieczeństwie, ale także o samej pracy; dyski "serwerowe" są przystosowane do pracy kiedy są w pełni zapełnione. Mają w takich warunkach mieć bardzo spójne parametry, przede wszystkim stałe, relatywnie niskie opóźnienia. W podobnych dyski konsumenckie są całkowicie nieprzewidywalne - latencja może wahać się od bardzo niskiej do niebotycznie dużej a to zdecydowanie nie daje komfortu pracy, ani przede wszystkim nie daje stabilności ani osiągów pacy w RAID.
A czy dane się odzyska ? zapewne bardziej jest to istotne w dyskach konsumenckich, bo są bardziej awaryjne i mniej przewidywalne. Statystycznie dyski serwerowe częściej po prostu przejdzie w tryb tylko do odczytu i po prostu po odczytaniu wszystkich/większości danych trzeba go zastąpić. Taka jest idea tej konstrukcji.
Być może masz ogromne doświadczenie w zakresie odzysku danych i wiesz rzeczy o których ja nie piszę; ale dla mnie istotne jest praca dysku. Ciągłość pracy zapewniam raid-em, bezpieczeństwo backup. A wystarczy że odpalę dyski konsumenckie i enterprise w RAID1 jako CACHE, poczekam aż zostaną w 100% zapełnione i szybko można odczuję jaka jest różnią w praktyce - wydajność teoretycznie wolniejszych dysków serwerowych jest wyższa, a wskaźnik zużycia dysku nie spada w oczach.
Liczy się dla mnie jak dobrze i jak długo dysk pracuje a nie co się z nim dzieje po zgodnie ;) Pod katem odzysku danych spoglądam na karty pamięci do aparatu który ma jedne slot a nie dysków do serwera :)
 

Użytkownicy znaleźli tą stronę używając tych słów:

  1. cena emby
  2. Enterprise dysk
  3. kingston dc400
  4. predkosc macierzy
  5. KOMPATYBILNOŚĆ DYSKÓW SSD