Rynek dysków HDD i SSD jest dla producentów niełatwy,
o czym przekonuje chociażby obserwowanie przejęć, które ostatnio miały
miejsce, i związanych z tym perturbacji. Widać też oznaki
spowolnienia sprzedaży na rynku HDD, chociaż analitycy nie są zgodni, czy
przyczyną jest rosnąca popularność nośników flash, czy też po prostu nadpodaż
przestrzeni dyskowej. Największym wydarzeniem ostatnich miesięcy była październikowa
zapowiedź przejęcia SanDiska przez WD. W efekcie powstałaby druga
– obok Toshiby – firma produkująca zarówno dyski twarde, jak
i nośniki SSD. Natomiast wszystkich zaskoczyła astronomiczna wręcz kwota
19 mld dol., której zapłacenie zadeklarował WD. Po czterech miesiącach
producent ten przedstawił jednak alternatywną ofertę opiewającą na
15,78 mld dol. Był to efekt wycofania się przez chińską firmę Unisplendour
z planów zainwestowania 3,78 mld dol. w 15 proc. akcji WD, a między
innymi te właśnie pieniądze miały być wykorzystane do opłacenia transakcji
przejęcia SanDiska.

Tak czy inaczej, zgodę na przejęcie wydały już odpowiednie
amerykańskie i europejskie komisje regulacyjne. Obie firmy podtrzymują, że
są zainteresowane doprowadzeniem transakcji do końca, co miałoby nastąpić
w drugim kwartale br. Przekonują też buntujących się akcjonariuszy, że ta
akwizycja ma sens. A pretensje mniejszych i większych udziałowców są
słuszne, bo cena akcji WD spadła z 80 dol. w październiku ub.r. do
42,77 dol. w marcu 2016 r. Firma odnotowała też 15-proc. spadek
przychodów w II kwartale obecnego roku fiskalnego (w porównaniu
z tym samym kwartałem ub.r.).

Seagate w ostatnim czasie nie prowadził ani nie
zapowiadał podobnych spektakularnych akwizycji, chociaż trzeba podkreślić, że
dopiero niedawno zakończony został rozpoczęty w 2011 r. proces
przejęcia dyskowego biznesu od Samsunga. Producent boryka się z podobnym
spadkiem obrotów jak w przypadku WD. W tym samym kwartale, co
konkurent, Seagate zanotował o 19 proc. mniejsze przychody (rok do
roku), zaś rynkowy spadek wartości walorów giełdowych wyniósł w sumie 14
dol. (z 49 do 35 dol. za akcję).

 

Problemy nie ominęły również Toshiby, która jest trzecim
dostawcą na rynku HDD (17 proc. udziału na świecie, podczas gdy WD
i Seagate mają odpowiednio 43 i 40 proc.), a także jedynym
producentem zarówno dysków twardych, jak i pamięci flash. W ostatnich
miesiącach, po ogłoszeniu przez Toshibę bardzo słabych wyników finansowych
i prognozy strat na poziomie 4,5 mld dol., pojawiła się plotka
o planach odsprzedaży działu produkcji napędów mechanicznych
i skoncentrowaniu się wyłącznie na nośnikach flash. Tym bardziej że kości
pamięci flash firma produkuje we własnym zakresie, a głowice
i talerze do dysków twardych kupuje od zewnętrznych dostawców.

W lutym br. Toshiba
opublikowała jednak oświadczenie, że nie opuści rynku HDD, ale podda swoją
działalność bardzo głębokiej restrukturyzacji. Jej najbardziej zauważalnym
objawem ma być skupienie się na produkcji dysków dla biznesu (w tym serwerowych)
oraz znaczne ograniczenie liczby modeli konsumenckich.

 

SSD: częściowy sukces

W bieżącym roku mija 60
lat, odkąd IBM zaprezentował swój pierwszy dysk twardy. W informatyce to
kilka epok, można było się więc spodziewać, że będziemy świadkami co najmniej
kilku zmian technologii urządzeń do zapisu danych. Oczywiście
w międzyczasie rosły pojemności (z 3,75 MB do 10 TB na
jednym nośniku), szybkość transferu danych, postępowała miniaturyzacja oraz
spadek cen. Jednak dopiero dyski SSD miały być przełomem, zastępując głowice
odczytujące dane z wirujących talerzy. Natomiast po niemal dekadzie ich
obecności na rynku widać, że pomysł ten sprawdził się tylko częściowo.
Specjaliści Transcenda zwracają uwagę, że w 2015 r., po raz pierwszy
w historii, dyski półprzewodnikowe na niektórych rynkach, np. na Tajwanie,
pod względem liczby sprzedanych egzemplarzy przewyższyły tradycyjne dyski
magnetyczne. Producent spodziewa się, że w skali globalnej zmiana ta
nastąpi w roku 2017. Najszybciej ma być widoczna w segmencie notebooków,
ze względu na wymagania użytkowników związane z możliwie niską wagą
i małym poborem prądu.

Mike Huang

Sales Manager, Plextor

Producenci dysków SSD stawiają na rozwój nowych technologii
– budżetowe modele prezentowane w 2016 roku będą bazowały głównie na
kościach TLC, dzięki czemu zapewnią większą pojemność w niższej cenie.
Coraz popularniejsze stają się dyski w formacie M.2 PCIe, w których
– dzięki zastosowaniu innego złącza – zwiększono przede
wszystkim maksymalną prędkość transferu względem dysków SATA, a sam proces
instalacji dysku jest prostszy, ponieważ znika konieczność stosowania
okablowania. Największą nowością w bieżącym roku będą jednak dyski SSD
z obsługą protokołu NVMe, który ma zastąpić archaiczny AHCI. Nowa technika
zmniejsza zapotrzebowanie na moc obliczeniową procesora, skraca czas wykonywania
podstawowych operacji wejścia i wyjścia, a także umożliwia
przechodzenie dysku w stan mniejszego poboru energii.

 

Dyski SSD wygrywają,
jeśli chodzi o szybkość dostępu do danych, odporność na uderzenia
i wstrząsy, brak jakiegokolwiek dźwięku wydawanego podczas pracy czy zdecydowanie
mniejszy pobór mocy, co ma pozytywny wpływ przede wszystkim na czas działania
laptopów przy zasilaniu bateryjnym. To, że wykorzystano w nich wyłącznie
półprzewodniki, powoduje, iż możliwa jest miniaturyzacja modułów pamięci,
chociaż na razie znakomita większość z nich dostępna jest w obudowie
dysków 2,5-calowych i z interfejsem SATA.

 

Dla jakich klientów?

Duża dysproporcja pomiędzy
wadami i zaletami dysków HDD i SSD wpływa na wyraźną polaryzację
klientów, którzy preferują jeden lub drugi nośnik danych. Wynika to
z indywidualnych potrzeb, głównie związanych z wydajnością
i pojemnością oraz oczywiście budżetem. Nawet przy spadających cenach
dysków SSD wciąż cena za gigabajt jest w tym przypadku średnio dwu- lub
nawet trzykrotnie wyższa niż w przypadku napędów HDD.

– Zainteresowanie dyskami SSD rosło
bardzo szybko, gdy popularny był bardzo „zasobożerny” system operacyjny Windows
Vista –
zauważa Robert Sepeta, Business Development Manager
w Kingston Technology. – Ale od tamtej pory każdy kolejny
system Microsoftu działa bardziej wydajnie, więc ten argument trochę stracił na
znaczeniu w rozmowach z klientami. Zdecydowanie bardziej opłaca im się
dołożyć pamięci operacyjnej.

Z dysków HDD zdecydowanie
jeszcze przez parę lat nie powinni rezygnować ci, którzy z różnych powodów
(najczęściej „kolekcjonerskich”) potrzebują pojemności liczonej
w terabajtach, a bardzo krótki czas dostępu do danych nie jest dla
nich priorytetem. Dyski SSD wciąż są przeznaczone głównie dla tych
niecierpliwych, którzy nie przechowują dużych ilości informacji,
a „przepłacenie” za gigabajt nie stanowi dla nich dużego problemu.
Niemniej proporcje między wykorzystaniem obu rodzajów nośników ostatnio zaczęły
się coraz szybciej zmieniać.

Hybrydowy kompromis

Jako kompromisowe rozwiązanie pomiędzy wydajnością dysków
SSD a niską ceną i dużą pojemnością napędów HDD producenci tych ostatnich już
od dekady proponują tzw. dyski hybrydowe SSHD (oferują je Seagate i WD). Obok
klasycznych talerzy i napędu mechanicznego z głowicą zawierają one 8 GB pamięci
flash, która służy jako cache odczytu. Kontroler takiego dysku w trakcie pracy
rozpoznaje najczęściej odczytywane przez komputer bloki danych i umieszcza je w
pamięci flash, znacznie skracając czas dostępu do nich.

Zaletą takiego rozwiązania jest zauważalny wzrost szybkości,
przede wszystkim widoczny przy uruchamianiu się systemu operacyjnego i
aplikacji. Do wad zalicza się natomiast to, że wzrost ten można zaobserwować
dopiero po pewnym czasie, potrzebnym kontrolerowi na zindeksowanie danych.

Posiadacze komputerów
stacjonarnych mogą być zainteresowani wykorzystaniem dwóch dysków: na SSD mogą
zainstalować system operacyjny i aplikacje, zaś na HDD trzymać swoje dane. To
najbardziej optymalne rozwiązanie pod względem ceny, wydajności i pojemności,
ale niestety niedostępne dla posiadaczy większości laptopów (tylko niektóre
17-calowe modele umożliwiają zainstalowanie dwóch dysków) oraz komputerów w
mikroobudowach.


 


 

Klienci nie traktują już dysków
SSD jako produkt klasy premium
– mówi Marek Skóra, Technical
Support Manager w MX Solution. – Na nośniki te decyduje się coraz
więcej przedsiębiorstw, także tych z sektora publicznego, które obowiązuje
ustawa o zamówieniach publicznych. Nawet w placówkach zazwyczaj
dysponujących ograniczonym budżetem, z branży edukacyjnej czy ochrony
zdrowia, pojawiają się zapytania o nośniki SSD.

Według wrocławskiego integratora klienci są świadomi, że
główną osiągniętą przez nich korzyścią będzie wzrost wydajności, a także
oszczędność prądu z baterii w przypadku laptopów, chociaż często mają
problem z określeniem skali oczekiwanych korzyści.

Kilku dostawców ma też w ofercie specjalne dyski SSD
o przedłużonej żywotności, przeznaczone do zastosowań w serwerach.
Jednak – jak podkreślają ich przedstawiciele – zainteresowanie nimi
jest raczej nikłe, ponieważ dysk serwerowy będzie działał trzy razy dłużej niż
konsumencki, ale kosztuje dziesięć razy więcej. Klienci z tego segmentu
decydują się więc na ryzyko, co ma ekonomiczny sens, gdy weźmie się pod uwagę,
że głównie z powodu małej pojemności dyski te trzeba wymieniać co dwa,
trzy lata. Dlatego w najbliższym czasie można spodziewać się pojawienia
nowych modeli nośników konsumenckich o częściowo zwiększonej trwałości
i cenie, która nie wzrośnie o kilka rzędów wielkości.

 

SSD w NAS – czy to ma sens?

Pamięci flash coraz częściej wykorzystywane są w dużych
macierzach dyskowych, bardzo szybko rośnie też segment rozwiązań klasy
„all-flash arrays”. Dyski SSD lub specjalne moduły z pamięcią flash służą
tam głównie jako grupa nośników do zapisu i odczytu tzw. gorących danych.
Czy ma zatem sens stosowanie klasycznych dysków SSD jako nośników w małych
serwerach plików NAS?

Zdaniem Grzegorza
Bielawskiego, dyrektora polskiego oddziału QNAP, dyski SSD sprawdzą się przede
wszystkim w przypadku, gdy na takim serwerze NAS przechowywane są obrazy
wirtualnych maszyn. Sprzęt tej marki często wykorzystywany jest jako
repozytorium w środowisku wirtualnym. Można wówczas obok standardowych
napędów HDD (np. do przechowywania backupów) zainstalować kilka dysków SSD
i wykorzystywać je jako nośnik do przechowywania wirtualnych maszyn
i udostępniania ich w ten sposób serwerom. Alternatywą jest
instalacja jednego lub dwóch dysków i udostępnienie ich jako cache odczytu.
Wtedy będzie to podobny mechanizm do tego spotykanego w dyskach
hybrydowych, tylko oczywiście na większą skalę.

Artur Długosz

Reseller Channel Manager, Intel

Nowa technologia produkcji kości pamięci 3D XPoint, która
powstała w wyniku współpracy Intela i Micron Technology, umożliwi
tworzenie nośników o tysiąckrotnie wyższej prędkości zapisu i odczytu
niż w przypadku obecnych SSD, a także trzykrotnie większej
pojemności. Na mniejszej przestrzeni zmieści się więcej danych, co oznacza
znaczną redukcję kosztów, niższe zużycie energii i wyższą wydajność.

 

 

– Natomiast z pewnością nie
ma sensu trzymanie wszystkich danych w serwerze NAS wyłącznie na dyskach
SSD
– podkreśla Grzegorz Bielawski.

W niektórych serwerach NAS możliwe jest także
obsadzenie dysków SSD w roli nośnika cache do odczytu i zapisu. Ważne
jest jednak wtedy, aby pamiętać, że takie napędy muszą być chronione
w ramach struktury RAID, a zatem potrzebne będą przynajmniej dwa dyski
do wykonania lustrzanej kopii danych. Przy takim modelu zapisywania danych
trafiają one najpierw na dyski SSD, a dopiero później powoli są
przenoszone na tradycyjne napędy. W przypadku awarii dysku SSD dane, które
nie trafiły jeszcze na nośnik mechaniczny, zostałyby utracone, więc producenci
wymuszają konieczność stosowania struktury RAID. Gdy dyski SSD używane są tylko
jako cache odczytu, takie obostrzenie nie występuje, bo w przypadku awarii
dysku dane wciąż są dostępne na klasycznych napędach.

W serwerach NAS można też wykorzystywać dyski hybrydowe
SSHD, ale zapewnią one wzrost wydajności tylko przy częstym odczycie przez
wielu użytkowników tych samych, nie zmienianych danych. Dlatego bardziej
optymalnym rozwiązaniem jest inwestycja w jeden lub dwa dyski SSD
i użycie ich w roli zwykłego cache’u odczytu.

 

Odzyskanie danych z SSD

Od samego początku za
jedną z głównych zalet dysków SSD uważa się brak mechanicznych części.
Znacznie zwiększa to odporność tych nośników, np. na upadek lub wstrząsy. Ale
nie oznacza to, że dyski SSD są bezawaryjne. Wręcz przeciwnie: komórki pamięci
flash zużywają się przy każdej operacji zapisu. Dlatego kontrolery dysków SSD
wyposażone są w specjalny mechanizm, który „rozrzuca” dane po jak
najrzadziej wykorzystywanych komórkach, aby zapewnić jak najdłuższy czas życia
całego urządzenia. Pierwsze generacje dysków sprawiały dość dużo problemów.
Dziś jest lepiej, ale do pełnego sukcesu jeszcze trochę brakuje.

Robert Sepeta

Business Development Manager, Kingston Technology

W firmowych komputerach dyski HDD dość rzadko są wymieniane
na SSD. W większości przypadków, 
zamiast rozbudowy, w miejsce starszego sprzętu po prostu pojawia się
nowy, od razu z pamięcią flash. Stało się tak głównie z powodu
polityki producentów sprzętu komputerowego. Oferują oni te napędy
w zestawach na tyle tanio, że firmom sprzedającym dyski SSD jako oddzielne
produkty trudno jest konkurować. Natomiast cały czas rośnie sprzedaż
użytkownikom indywidualnym, którzy często rozbudowują pamięć operacyjną
i zamieniają dysk HDD na SSD w swoich kupionych dwa, trzy lata temu
komputerach.

 

 

Z badań przeprowadzonych na całym świecie przez firmę Kroll
Ontrack wynika, że ponad 30 proc. użytkowników dysków SSD doświadczyło ich
usterki (nie wiadomo jednak jak wiele z tych urządzeń należało do
pierwszych, bardziej awaryjnych generacji nośników SSD; można założyć, że dziś
ten współczynnik byłby znacznie niższy). Dla 61 proc. z nich wiązała
się ona z utratą danych, natomiast udało się je odzyskać w mniej niż
20 proc. przypadków (pozostałe 19 proc. poszkodowanych nie zlecało
próby odzyskania danych). Jak przyznają sami eksperci ds. odzyskiwania danych,
w przypadku tych nośników sprawa jest skomplikowana.

– Dane na dyskach SSD są bardziej
rozproszone niż w przypadku tradycyjnych nośników, w których
struktura zapisu jest liniowa –
mówi Paweł Odor, główny specjalista
polskiego oddziału Kroll Ontrack. – To sprawia, że odzyskiwanie danych
z SSD stanowi zdecydowanie większe wyzwanie dla specjalistów. Dodatkowo,
mimo że następuje konsolidacja na rynku producentów SSD, metody zapisu
i organizacji plików na nośnikach poszczególnych dostawców nie są
ujednolicone. Oznacza to potrzebę opracowywania indywidualnych metod
odzyskiwania danych dla poszczególnych modeli dysków.

Swoje obserwacje dotyczące niezawodności dysków SSD
przeprowadzili ostatnio także profesorowie uniwersytetu w Toronto oraz
inżynierowie Google’a. Do badania wykorzystano dziesiątki tysięcy dysków SSD
używanych w centrach danych Google – wśród nich znajdowało się 10
modeli, zarówno konsumenckich, jak też klasy enterprise, z kośćmi pamięci
typu MLC, eMLC i SLC.

Konkluzje badaczy niestety działają mocno na niekorzyść
nośników flash. Udowodniono przede wszystkim, że traktowane jako najbardziej
wytrzymałe kości SLC dorównują tym parametrem pamięciom MLC. Co zaskakujące, na
awaryjność całego dysku nie wpływał tak bardzo stopień jego zużycia, jak wiek
(ale także tutaj można założyć, że starsze dyski były bardziej awaryjne ze
względu na „choroby wieku dziecięcego”).

W większości kości pamięci
flash w dyskach SSD występują uszkodzone bloki – kontroler dba
o to, aby nie trafiły tam żadne dane. Ale – według wyników badań
– w tych dyskach, w których liczba uszkodzonych bloków była
większa niż normalnie, znacznie rosło ryzyko pojawienia się kolejnych, co
docelowo mogło wpłynąć zarówno na wydajność urządzenia, jak i bezpieczeństwo
przechowywanych danych.

Producenci zarzekają się jednak, że wysoka awaryjność nośników
SSD to już przeszłość. W międzyczasie rozwinęła się technologia produkcji
kości pamięci, poprawiono też algorytmy zapisu danych. Wszyscy, słusznie
zresztą, podkreślają także, że posiadanie nawet najbardziej niezawodnych
urządzeń do przechowywania danych nie zwalnia z obowiązku wykonywania
backupu.