Klasyczne dyski twarde wciąż mają zalety – i to bardzo ważne z perspektywy wielu użytkowników. Są obecnie najtańszym nośnikiem o dużej pojemności i krótkim czasie dostępu do danych. Wprawdzie w dużych środowiskach, gdzie trzeba przechowywać kilkaset terabajtów lub petabajty danych, taśmy okazują się tańsze w zakupie i eksploatacji, ale korzystanie z nich jest znacznie mniej wygodne, zaś dostęp do konkretnych danych może w skrajnych przypadkach trwać nawet kilka godzin. A jednak rynek dysków twardych się kurczy, zaś ich producenci odnotowują coraz mniejsze obroty.

Niełatwą sytuację na rynku dysków twardych odzwierciedla też liczba ich dostawców. Od pięciu lat jest ich tylko trzech – Seagate, Toshiba i WD – podczas gdy w całej historii IT działało ich ponad 200. W minionej dekadzie byliśmy świadkami kilku spektakularnych przejęć: Seagate kupił Maxtora (2006) i dział HDD Samsunga (2011), WD i Toshiba „podzielili się” odpowiednio 2,5- oraz 3,5-calowymi dyskami HGST (2011), zaś sama Toshiba przejęła cały biznes HDD od Fujitsu (2009).

Według analityków stworzenie triopolu na rynku, w wyniku tak dużej konsolidacji, było w zasadzie założeniem sobie pętli na szyję przez producentów dysków twardych. Spadła motywacja do zaciekłej walki na innowacje, a wszyscy trzej dostawcy skupili się raczej na optymalizacji kosztów produkcji. Wskutek takiego podejścia obecnie przynajmniej raz na pół roku słyszymy o zamknięciu dużej fabryki, w której montowane są dyski lub produkowane ich podzespoły (silniki, talerze, głowice). Pierwszym gwoździem do trumny okazała się duża powódź w Tajlandii w 2011 r., w wyniku której zamknięte zostały fabryki WD i Toshiby, zaś eksport HDD spadł o ponad 50 proc. Nic dziwnego, skoro Tajlandia była drugim po Chinach największym producentem dysków twardych. Na taką sytuację producenci SSD tylko czekali…

 

Nadzieja w hybrydach?

Co do tego, że wśród użytkowników istnieje zapotrzebowanie na nośniki o wydajności plasującej się pomiędzy szybkością działania pamięci DRAM i zwykłych dysków, nie ma wątpliwości. Ale to oczekiwanie konfrontowane jest z rynkowymi realiami. Te zaś są bezlitosne – według różnych analiz około 80 proc. dostaw kości pamięci NAND „konsumowanych” jest przez producentów smartfonów. Popyt na pamięć flash na razie zdecydowanie przewyższa podaż, rosną więc jej ceny, czasem do absurdalnych rozmiarów. Dlatego coraz większym zainteresowaniem cieszą się rozwiązania kompromisowe, zdobywające rynek od 2010 r.

 

Powstałe wówczas hybrydowe dyski twarde, czyli Solid State Hybrid Drive – SSHD, wyposażono w pamięć SSD (urządzenia z wcześniejszych generacji w 4 GB, obecnie produkowane – najczęściej w 8 GB), która stanowi cache odczytu. Specjalny algorytm w firmware dysku twardego analizuje częstotliwość odczytywania danego pliku i jeśli przekroczony zostanie wyznaczony poziom (liczba odczytów w określonym czasie), kopiuje dany plik lub jego fragmenty na pamięć flash, zapewniając tym samym jego szybszy odczyt i skrócenie o kilka rzędów wielkości czasu dostępu. W praktyce oznacza to znacznie szybsze, zbliżone do wydajności SSD, ładowanie się do pamięci systemu operacyjnego i aplikacji.

Przewidujemy, że dyski hybrydowe będą bardzo popularne wśród zaawansowanych użytkowników komputerów i graczy przez przynajmniej pięć najbliższych lat – mówi Marcin Kaczor, Senior Sales Representative w Seagate. – Z punktu widzenia konsumentów dysponujących ograniczonym budżetem to jedyna szansa, aby mieć nośnik o wydajności zbliżonej do SSD za cenę tylko niewiele większą od zwykłego dysku.

Decydując się na dysk SSHD, warto pamiętać, że im większa jego pojemność, tym gorszy może być efektywny wzrost wydajności. Procesor w kontrolerze dysku wykonuje mrówczą pracę, analizując częstotliwość odczytu danych z każdego sektora na dysku – im więcej tych sektorów ma do przeanalizowania, tym wolniej będzie to robił. Dlatego pojemności napędów SSHD dalekie są od obecnych rekordów HDD, sięgających nawet 12 TB. Toshiba ma w ofercie starszą generację dysków SSHD (z 4 GB pamięci flash) o średnicy 2,5 cala i maksymalnej pojemności 1 TB. WD oferuje dwa modele z rodziny Blue SSHD o pojemności 1 TB (2,5 cala) i 4 TB (3,5 cala). Najbogatszą ofertę ma Seagate, bo składa się na nią pięć modeli z nowej rodziny FireCuda: dwa 3,5-calowe (1 i 2 TB) oraz trzy 2,5-calowe (500 GB, 1 i 2 TB).

 

Trzęsienie ziemi u producentów HDD

Producenci dysków twardych nie zasypiają gruszek w popiele i także interesują się nośnikami wyposażonymi wyłącznie w pamięć flash. Ich działania przypominają jednak dobry thriller, w którym sporo jest zwrotów akcji. Z najbardziej czytelną sytuacją mamy do czynienia w przypadku firmy WD, która w ubiegłym roku zakończyła proces przejęcia SanDiska za rekordową i zaskakującą dla analityków oraz akcjonariuszy kwotę 19 mld dol. Dzięki temu ma obecnie w portfolio całą paletę produktów związanych z pamięciami flash.

Michał Orłowski

szef polskiego przedstawicielstwa Adata Technology

Miniony rok był przełomowy dla SSD w Polsce. Przede wszystkim prawdopodobnie przekroczyliśmy magiczną barierę miliona sprzedanych urządzeń. Trudno jednak oszacować, jak będzie wyglądał rynek w najbliższym czasie. Bardzo ograniczona dostępność kości pamięci oraz ogromny popyt ze strony dostawców rozwiązań profesjonalnych i smartfonów sprawiły, że ceny poszybowały do poziomu, jaki jest w dużej mierze nieakceptowalny przez użytkowników końcowych. Z pewnością spadnie – i to już zauważamy – średnia pojemność kupowanych dysków. Do łask wróciły nieco zapomniane urządzenia o pojemności 128 GB, które dzisiaj sprzedajemy drożej niż do niedawna dwukrotnie pojemniejsze dyski SSD.

 

Drugim bardzo ważnym graczem jest Toshiba, jeden z największych producentów kości pamięci flash – to stawia firmę w trochę uprzywilejowanej pozycji wobec konkurentów. Tyle że w związku z niemałymi kłopotami finansowymi japońskiego producenta, w jakie popadł rok temu, 30 marca br. jego akcjonariusze zdecydowali o wystawieniu na sprzedaż za minimum 9 mld dol. całego biznesu związanego z produkcją półprzewodników, w tym kości pamięci.

Jego kupnem zainteresowanych jest podobno nawet 10 firm (w tym tak ważni gracze jak Micron, SK Hynix czy WD, który ma wspólną z Toshibą fabrykę w Japonii) – w wyniku licytacji między nimi Toshiba spodziewa się uzyskać nawet 18 mld dol. przychodu. Według ostatnich doniesień mediów licytację ma zamiar wygrać tajwańska firma Hon Hai Precision Industry (znana pod marką Foxconn), która zaoferowała aż… 27 mld dol. Transakcja będzie oznaczała jednak spory krok w tył i praktycznie wyeliminuje Toshibę z walki o miejsce na rynku pamięci masowych w przyszłości.

Na placu boju pozostaje Seagate, którego oferta konsumencka ogranicza się tylko do zwykłych i hybrydowych napędów SSHD, ale w portfolio ma kilka modeli dysków SSD klasy enterprise z interfejsami SATA, SAS, NVMe oraz PCIe. Branża czeka na zdecydowany ruch producenta – być może podobny do tego, który wykonał WD. Pierwsze plotki mówiły o tym, że to właśnie Seagate okaże się czarnym koniem w wyścigu po dział pamięci Toshiby, ale w obliczu oferty złożonej przez Hon Hai wydaje się to raczej bardzo mało prawdopodobne.

 

SSD: produkt przejściowy

Wszystko wskazuje na to, że dyski SSD stanowią tylko przejściowy etap w dziedzinie przechowywania danych i z pewnością nie zagrzeją miejsca tak długo, jak udało się to dyskom twardym (pierwszy powstał w 1956 r.). I raczej niewiele pomoże tu zmiana interfejsów z dotychczas znanych na nowocześniejsze czy wymyślenie możliwości przechowywania większej liczby bitów w jednej komórce pamięci. Obserwatorzy branży zgodnie podkreślają, że dyski SSD są po prostu zbyt wolne.

Już dziś producenci macierzy dyskowych twierdzą, że kontroler w SSD i interfejs zapewniający łączność z magistralą stały się wąskim gardłem. Dlatego nie ustają w poszukiwaniach świętego Graala, który zaspokoi potrzeby wszystkich. Widać już pewne sukcesy, ale ten proces twórczy wprowadził też trochę bałaganu, z którego ogarnięciem – jak przyznają sami użytkownicy – czasem trudno sobie poradzić.

Jednym z podstawowych wyzwań związanych z pamięciami flash była mała pojemność wprowadzonych na rynek wykorzystujących je nośników oraz większa o kilka rzędów wielkości cena za gigabajt przestrzeni. Dlatego po nieprodukowanych już pamięciach SLC (jeden bit na komórkę) dużą popularność zyskały kości MLC (dwa bity na komórkę), dostępne w wariantach różniących się przede wszystkim trwałością.

Dziś do oferty producentów nośników SSD trafiają pamięci TLC (trzy bity na komórkę), i to w wersji trójwymiarowej (ta jest dostępna też dla kości MLC), gdzie poszczególne warstwy nałożone są na siebie – producenci przyrównują tę konstrukcję do budowy wieżowców. Ponieważ osiągnięto kres możliwej do uzyskania dziś minimalizacji układów półprzewodnikowych, był to jedyny sposób na zwiększenie pojemności i obniżenie kosztu za gigabajt przy utrzymaniu rozmiarów kości. Wiadomo już też, że inżynierowie zastanawiają się nad możliwością umieszczenia czterech bitów w jednej komórce (QLC). Dzięki temu za parę lat w jednym dysku możliwe stanie się zapewnienie ponad 100 TB przestrzeni. Natomiast w zwykłych dyskach twardych osiągnięcie 20 TB będzie prawdziwym wyzwaniem.

 

Ale aktualnie nawet wprowadzenie na rynek nośników z trójwymiarowymi kośćmi flash stanowi niemały problem.

– Co prawda chipy 3D TLC NAND są obecne już od pewnego czasu, ale my nadal jesteśmy na etapie ich testowania – mówi Paweł Śmigielski, dyrektor regionalny Kingston Technology na Polskę i Europę Środkowo-Wschodnią. – Z naszych badań wynika, że ich jakość nie jest jeszcze satysfakcjonująca. Prawdopodobnie dopiero w trzecim kwartale tego roku nasi kluczowi dostawcy będą w stanie zapewnić naprawdę niezawodne kości pamięci w hurtowych ilościach, dzięki czemu będziemy mogli wprowadzić te produkty na rynek.

Kolejnym wyzwaniem, obok pojemności, jest czas transferu danych i dostępu do nich. Interfejsy SATA (także w postaci modułów M.2) oraz stosowany w serwerach i macierzach dyskowych SAS są zbyt wolne, aby zaspokoić potrzeby obecnych i przyszłych układów elektronicznych pod względem wydajności. Także oprogramowanie kontrolera dysku jest nieprzystosowane do przetwarzania tak dużych ilości przesyłanych danych. Dlatego powstał przeznaczony na razie głównie dla serwerów standard NVMe (NVM Express), w którym udało się wyeliminować negatywny wpływ na wydajność cech dysków twardych z interfejsami SATA i SAS. Kości flash w dyskach NVMe podłączane są bezpośrednio do magistrali, a ich kontrolery są przystosowywane do różnych wyzwań związanych z transmisją danych.

Ważne jest, że fundamenty, na których powstał standard NVMe, umożliwiają ciągły jego rozwój. Sam standard jest już też powszechnie akceptowany – sterowniki do obsługi tego typu nośników są w większości systemów operacyjnych. Powoli producenci prezentują też pierwsze dyski, chociaż analitycy ostrzegają jeszcze przed ich kupowaniem. Standard NVMe jest cały czas rozwijany – pod koniec ubiegłego roku przedstawiono jego wersję 1.3, w której dopiero pojawiła się obsługa wirtualizacji, auto-testy urządzenia, partycje bootujące itp. Zdaniem ekspertów urządzeniami, które będą gwarantowały stabilną pracę, należy się zainteresować raczej pod koniec bieżącego roku.

 

Przyszłość w NVDIMM-ach

Obok dysków NVMe rozwiązaniem następnej generacji mają być tzw. trwałe pamięci (persistent memory). Działająca przy SNIA (Storage Networking Industry Association) grupa robocza Solid State Storage (SSSI) oraz organizacja JEDEC, projektująca otwarte standardy w branży elektronicznej, rozpoczęły promowanie pamięci NVDIMM, które wyglądem przypominają zwykłe DIMM-y, ale utrzymują zapisane w nich dane po odłączeniu zasilania (na modułach pamięci zainstalowane są kości DRAM i flash). W kontekście wydajności wypełnią one lukę pomiędzy szybkością zapisu danych w zwykłych pamięciach a tą zapewnianą przez dyski SSD (szczegóły na schemacie powyżej).

Wprowadzenie do systemów IT tego typu rozwiązania przynosi wiele korzyści. Podstawową jest wydajność – to w pamięci NVDIMM będą przechowywane najczęściej odczytywane dane, plik wymiany danych (który obecnie najczęściej ląduje na dysku SSD lub HDD) oraz np. rekordy baz danych wymagające szybkiego przetworzenia. Dzięki temu, że opisywane pamięci będą podłączone do magistrali komputera bezpośrednio (tak jak procesor), a nie poprzez różnego typu interfejsy, efektywna szybkość działania komputera czy serwera wzrośnie o kilka rzędów wielkości. To zaś przełoży się na nowe możliwości wykorzystania rozwiązań IT, np. do analizy dużych ilości danych w czasie rzeczywistym (Big Data), co poskutkuje szybszym podejmowaniem lepszych decyzji biznesowych.

Paweł Śmigielski

dyrektor regionalny na Polskę i Europę Środkowo-Wschodnią, Kingston Technology

Przyszłość dysków twardych wydaje się przesądzona. Pozostaną w użyciu tylko tam, gdzie znaczenie ma koszt przechowywania dużych ilości danych, a nie wydajność – głównie w takich zastosowaniach jak backup czy archiwizacja. Wszyscy producenci pamięci flash dążą obecnie do zwiększenia wydajności i pojemności, ale też nie ustają w próbach obniżenia cen. Szybkie pojawianie się nowych standardów spowoduje, że za kilka lat zwykli konsumenci raczej zapomną, czym był dysk twardy.

 

Dostępne są już pamięci w zaakceptowanym już standardzie NVDIMM-N, jednak stanowią one tylko rozwiązanie przejściowe, bowiem nie rozwiązują wszystkich problemów. W systemie operacyjnym nadal mapowana jest tylko pamięć DRAM (flash funkcjonuje jako nośnik dodatkowy), pojedynczy moduł wciąż może mieć tylko kilkadziesiąt gigabajtów pojemności, a oprócz tego potrzebne jest dodatkowe źródło energii chroniące przed utratą danych w przypadku niekontrolowanego wyłączenia komputera. Utrzymany zostaje natomiast charakterystyczny dla pamięci DRAM krótki czas dostępu (rzędu kilkudziesięciu nanosekund).

Niektórzy producenci serwerów zaprezentowali też moduły określane jako NVDIMM-F (nie jest to jednak oficjalny standard i nie wiadomo, czy się nim stanie), w których to pamięć flash jest mapowana w systemie. Ich główną zaletą okazuje się brak konieczności podtrzymania bateryjnego i duża pojemność modułów pamięci (nawet kilka terabajtów), natomiast wadą – czas dostępu rzędu kilkudziesięciu mikrosekund.

Finalnie prawdopodobnie przyjmą się moduły w standardzie NVDIMM-P – ich producenci obecnie składają odpowiednią dokumentację do organizacji standaryzacyjnych. Zapewniają one mapowanie przez system operacyjny zarówno kości flash, jak i DRAM, pojemność podobną jak w układach NVDIMM-F, a czas dostępu na poziomie kilkuset nanosekund – dłuższy niż w kościach NVDIMM-N, lecz gwarantujący o wiele większą wydajność komputera niż w przypadku obecnie stosowanego i uznanego za szybki modelu: pamięć RAM plus dysk SSD.

 

Trudne odzyskiwanie i… kasowanie

Gdy mowa o nośnikach bazujących na technologii flash, tematem pobocznym, ale równie ważnym jak wydajność, są kwestie związane z odzyskiwaniem i trwałym kasowaniem danych. Laboratoria zajmujące się profesjonalnie tą dziedziną nie mają niestety najlepszych wiadomości. Ze względu na to, że w celu zapewnienia trwałości dysków SSD zastosowano w nich skomplikowane oprogramowanie zarządzające rozpraszaniem danych w różnych komórkach pamięci i dbające o zagwarantowanie ich odczytu, proces odzyskiwania informacji w przypadku awarii urządzenia staje się znacznie bardziej skomplikowany, czasochłonny, a przez to droższy. Nawet gdy uszkodzona jest tylko logiczna warstwa nośnika, próba odzyskiwania danych przypomina szukanie igły w stogu siana. Gdy zaś nośnik uszkodzony jest fizycznie – operacja ta staje się praktycznie nieopłacalna.

Do laboratoriów trafiają najczęściej dyski SSD klasy konsumenckiej (pendrive’y rzadziej, ponieważ wykorzystywane są do przenoszenia, a nie przechowywania danych). Są one bardziej podatne na uszkodzenia niż rozwiązania profesjonalne. Mają mniej zapasowej przestrzeni do zastąpienia uszkodzonych komórek pamięci, czasem odmawiają pracy bez jakichkolwiek wcześniejszych sygnałów ostrzegawczych, a – co charakterystyczne dla ich użytkowników – zapisane na nich dane rzadko są backupowane. Tym bardziej że producenci zapewniają o ich większej niezawodności niż w przypadku dysków twardych, co nie zawsze jest zgodne z prawdą.

– Z roku na rok obserwujemy coraz większe zapotrzebowanie na usługi odzyskiwania danych z dysków SSD – mówi Adam Kostecki, dyrektor ds. sprzedaży w firmie Kroll Ontrack. – Nasze ogólnoświatowe doświadczenia mówią o 100-proc. wzroście takich zleceń każdego roku. Oczywiście stanowi to wyzwanie, bo wiąże się z koniecznością opracowania skutecznych metod i narzędzi, ale traktujemy to po prostu jako kolejny etap rozwoju biznesu odzyskiwania danych, który ulega ciągłym zmianom. Podobny przykład może stanowić odzyskiwanie danych z urządzeń mobilnych.

 

Sytuację utrudnia to, że obecnie na rynku działa znacznie więcej producentów nośników bazujących na technologii flash niż dysków twardych. Z dostawcami tych drugich laboratoria odzyskiwania danych od lat są w stałym kontakcie i uzyskują wiedzę potrzebną do zwiększenia prawdopodobieństwa odzyskania danych. W przypadku nośników flash jest o wiele trudniej, gdyż ta technologia zapisu jest cały czas rozwijana i każda generacja różni się wbudowanym oprogramowaniem. Wylutowywanie kości pamięci praktycznie nie wchodzi w grę, podczas gdy talerze z uszkodzonego dysku relatywnie wyjmowane są dość często. Producenci stosują różne sposoby adresowania komórek, szyfrowania danych itp. Dlatego w przypadku ważnych danych przechowywanych na nośnikach flash jeszcze ważniejsza okazuje się ich replikacja i backup, bo odzyskanie może trwać znacznie dłużej i być droższe – o ile w ogóle będzie możliwe.

Kolejnych problemów nastręcza skuteczne kasowanie danych – dotyczy to szczególnie przedsiębiorstw, które do takiej procedury są zobowiązane prawnie. W przypadku dysków twardych wystarczy kilkukrotne nadpisanie wybranych sektorów losowymi danymi, aby praktycznie uniemożliwić lub uczynić nieopłacalnym odzyskanie informacji. Natomiast jeśli chodzi o dyski SSD, taka operacja okazuje się bezsensowna, ponieważ z poziomu systemu operacyjnego nie ma możliwości wybrania konkretnej fizycznej komórki do nadpisania – za jej wybór odpowiada firmware nośnika, dbając o to, aby nie została ona zapisywana zbyt często, co może wpłynąć na jej trwałość. Dlatego oprogramowanie do kasowania danych poprzez ich nadpisanie w przypadku takich nośników jest zupełnie bezużyteczne.

Mimo że odzyskanie danych z nośników flash okazuje się znacznie trudniejsze, to jednak nie jest niemożliwe. Dlatego firmy zobowiązane prawnie do ochrony danych muszą decydować się na fizyczne zniszczenie nośnika przed jego utylizacją. Alternatywą prawdopodobnie wkrótce stanie się funkcja skutecznego kasowania bloków danych, którą producenci planują wbudowywać w firmware nośników. Pozwoli to np. na odsprzedaż używanego dysku, aczkolwiek w przypadku SSD kupowanie takich produktów jest wysoce niewskazane. Producenci wskazują też metodę alternatywną: gdy dane na nośniku są szyfrowane, wystarczy skuteczne i trwałe skasowanie klucza szyfrującego. Oczywiście to będzie rozwiązanie, które zapewni brak możliwości odzyskania danych w ciągu najbliższych lat. Nie wiadomo jednak, jak dużą mocą będą dysponowały komputery w przyszłości i czy nie będą w stanie z łatwością takiego klucza złamać.

Syndrom dyskietki

W ubiegłej dekadzie byliśmy świadkami zastąpienia archaicznego standardu IDE trzema wersjami standardu Serial ATA w dyskach twardych dla desktopów i notebooków – SATA 1.0 (1,5 Gb/s) w 2003 r., SATA 2.0 (3 Gb/s) w 2004 r. i SATA 3.0 (6 Gb/s) w 2008 r. W ciągu ostatnich paru lat wprowadzano drobne modyfikacje w wersji 3.0 (czego efektem było wypuszczenie podwersji 3.1, 3.2 i 3.3), ale wiadomo już, że czwartej generacji standardu SATA raczej się nie doczekamy. W przypadku dysków twardych osiągnięto już praktycznie granicę szybkości, gdy mowa o fizycznych możliwościach transferu danych i uzyskiwania czasu dostępu do nich. Z kolei dla pamięci flash inżynierowie przewidzieli inne rozwiązania, które umożliwią uniknięcie wąskiego gardła, jakim jest kontroler.

Nie ulega wątpliwości, że przy rosnącej wydajności procesorów i przepustowości magistrali potrzebne są szybsze pamięci masowe – wszystko wskazuje na to, że te będą tworzone z wykorzystaniem kości NAND, z których powstają pamięci flash. Dni dysków twardych wydają się zatem policzone, ale czy kres ich produkcji szybko nastąpi? Rychłą śmierć dyskietek zapowiadano już w 2000 r., tymczasem Sony zaprzestało ich produkcji dopiero w 2011 r. O „nieśmiertelności” tej technologii może świadczyć też ujawniony w ubiegłym roku fakt, że niektóre jednostki amerykańskiego Departamentu Obrony, odpowiedzialne m.in. za broń nuklearną, nadal korzystają z… 8-calowych dyskietek wyprodukowanych w latach 70.