NAS dla małych i dużych

Analitycy IDC i Gartnera szacują, że około 80 proc. wytwarzanych przez korporacje nowych informacji to dane nieustrukturyzowane. Zarządzanie tego rodzaju zasobami, w tym ich przechowywanie, spędza sen z powiek wielu szefom działów IT. Wprawdzie nie jest to nowe wyzwanie, aczkolwiek staje się coraz trudniejsze ze względu na tempo przyrostu danych, ale również ich nadmierne rozproszenie, co spowodowane jest hybrydowym modelem pracy. To woda na młyn dla dostawców serwerów Network Attached Storage (NAS), choć sytuacja na rynku jest daleka od ideału.

– Najpierw pandemia, a później zakłócenia w łańcuchu dostaw znacząco wstrząsnęły rynkiem urządzeń IT, jednak popyt na serwery NAS nie malał. Obecnie pojawił się inny kłopot w postaci inflacji i niskiej wartości złotego, co przekłada się na wzrosty cen, a u wielu klientów oznacza ograniczenia inwestycji – zauważa Łukasz Milic, Business Development Representative w QNAP-ie.

Nawet jeśli przedsiębiorcy nieznacznie ograniczyli zakupy NAS-ów, to tacy producenci jak QNAP czy Synology nie mają powodów do nadmiernych narzekań. Klienci biznesowi nie mają wyjścia i chcąc nie chcąc muszą znaleźć środki na nową przestrzeń dyskową. Zaopatrując się w sprzęt pierwszego z wymienionych producentów najczęściej wybierają modele cztero- oraz dwunastodyskowe. Bardzo podobnie jest w przypadku Synology, gdzie największym popytem cieszą się jednostki czterodyskowe lub większe. Małe i średnie firmy preferują serwery w obudowie desktop, zaś większe podmioty z reguły decydują się na urządzenia montowane w szafie rack.

– Najczęstsze zastosowania systemów NAS to przede wszystkim backup danych, współużytkowanie plików oraz repozytorium dla maszyn wirtualnych. W pierwszym przypadku rozpatrywane są raczej mniej kosztowne jednostki z liczbą od 2 do 8 dysków. W serwerach dla wirtualizacji oczekiwana jest większa wydajność, dlatego tam dominują maszyny 8–16 napędami, wydajnym procesorem oraz kartą sieciową o przepustowości 10 GbE – mówi Jacek Marynowski, CEO Storage IT.

Układ sił na rynku serwerów NAS dla małych i średnich firm wydaje się być klarowny. Wiadomo, że od dawna karty rozdają dwaj producenci z Tajwanu i nie jest to obszar, w którym co chwilę pojawiają się jakieś przełomowe innowacje.

Jak zauważa Łukasz Milic, w tym segmencie mamy do czynienia z niekończącym się spacerem, a nie sprintem. Natomiast tempo podkręcają dostawy dużych systemów scale-out, które umożliwiają rozbudowę zarówno pojemności i jak wydajności urządzenia. Dell EMC, NetApp, Hitachi, HPE i IBM oferują serwery NAS o dużej pojemności z różnymi kombinacjami kosztów i wydajności.

Jednak liderzy są mocno naciskani przez młodych graczy. Nowicjusze twierdzą, że nie powinno być kompromisu pomiędzy wydajnością a pojemnością. Przykładowo WekaIO opracowała definiowany programowo rozproszony system plików, który działa na serwerach x86, klastrze hiperkonwergentnym lub w chmurze publicznej. Użytkownicy mogą tworzyć tysiące rozproszonych węzłów obliczeniowych, realizować miliony operacji wejścia-wyjścia na sekundę i obsługiwać petabajty danych. Ciekawostką jest fakt, że produkt ten oferuje pod własną marką w modelu OEM także Hitachi Vantara.

Na uwagę zasługuje również amerykański startup VAST Data, który stworzył oprogramowanie do przechowywania plików i obiektów oraz oferuje je na certyfikowanych przez siebie platformach sprzętowych. Do składowania danych wykorzystywane są wyłącznie nośniki z układami flash QLC. Szefowie VAST Data deklarują, że pod względem kosztów system jest niemal porównywalny z rozwiązaniami do archiwizacji bazującymi na dyskach twardych.

Archiwizacja: od LTO aż do SSD?

Wspomniany VAST Data używa w swoich rozwiązaniach nośników QLC (4 bity na komórkę), których średnia trwałość wynosi około tysiąca cykli zapisu, czyli jest pięciokrotnie niższa od powszechnie stosowanej w macierzach dyskowych pamięci TLC. Nie przeszkadza to jednak dostawcy w udzielaniu aż 10-letniej gwarancji. Czy jest to wyłącznie marketingowy slogan, a może startupowi z Kalifornii udało się opracować receptę na długowieczność SSD?

Ze specyfikacji produktu wynika, że firma prawdopodobnie dąży do składowania danych na tanich i awaryjnych nośnikach flash QLC, ale stara się je chronić przed zapisami buforem zmiennofazowym. Taką rolę spełnia w tym systemie Intel Optane 3D XPoint.

– Jeśli większość operacji zapisu będzie wykonywanych w układach zmiennofazowych, zaś pamięć flash NAND posłuży wyłącznie do odczytu, nie można wykluczyć, że producentowi uda się utrzymać awaryjność w ryzach – wyjaśnia Paweł Kaczmarzyk, właściciel firmy Kaleron.

Ambitne plany VAST Data może jednak pokrzyżować decyzja Intela o wygaszaniu biznesu związanego z pamięciami Optane. Produkty są wytwarzane w technologii 3D XPoint, opracowanej przez Intela wspólnie z Micronem, który wycofał się z tego segmentu już w ubiegłym roku.

VAST Data ma specyficzne podejście do oferowanej przez większość macierzy funkcji dzielenia nośników na warstwy o różnej wydajności i cenie za jednostkę pojemności (tiering storage), uważając je za zbędne, archaiczne rozwiązanie. Inne zdanie ma ten temat ma większość klientów wykorzystujących różne rodzaje nośników danych.

– Kres „tiering storage” przepowiadano już wielokrotnie. Obecnie jest to wciąż najbardziej korzystna opcja dla klientów, którzy chcą gromadzić dużą ilość danych przy umiarkowanych kosztach. W perspektywie kilku najbliższych kilku lat nie sądzę, aby ta tendencja miała się radykalnie zmienić – mówi Jacek Marynowski.

Chociaż Samsung, Micron, SK hynix i Kioxia zapowiadają zmierzch ery taśm i dysków magnetycznych, jest za wcześnie na definitywne przesądzanie o ich losie. IDC prognozuje, że dostawy dysków SSD będą rosły w latach 2020–2025 w tempie prawie 8 proc. rocznie, a przychody o 9 proc. każdego roku. Ale ze względu na duży popyt i problemy z łańcuchami dostaw ceny pamięci flash NAND w 2021 r. wzrosły o 15 proc. Eksperci sądzą, że w tym roku ceny powrócą do poziomu z 2020 r., jednak zależy to od wielu zmiennych, niezależnych od samej branży.

Warto podkreślić, że wiele ciekawych rzeczy dzieje się u producentów „twardzieli”. Western Digital, Seagate oraz Toshiba pokładają duże nadzieje w technologiach HAMR (Heat Assisted Magnetic Recording) oraz MAMR (Microwave-assisted Magnetic Recording Technology). Pierwszy z wymienionych producentów zaprezentował w połowie roku dwa nowe nośniki o pojemności 22 TB oraz 26 TB, aczkolwiek przy ich opracowaniu nie korzystał ze wspomnianych technologii. Seagate zapowiada jednak, że za cztery lata do sprzedaży trafią dyski HAMR o pojemności 50 TB.

W ubiegłym roku doszło w tym segmencie rynku do pewnego przełomu. Otóż producenci sprzedali 259 mln HDD, czyli o 4 mln więcej niż w roku 2020. Po raz pierwszy od dekady liczba sprzedanych twardych dysków nie spadła w ujęciu rok do roku. Dobre wiadomości dla producentów ma IDC – ogólna pojemność sprzedawanych na świecie dysków magnetycznych w najbliższych czterech latach ma rosnąć w tempie 18,5 proc. rocznie.

Tymczasem prawdziwy renesans przeżywają taśmy. Według IDC dostawy napędów taśmowych, bibliotek taśmowych i wirtualnych bibliotek taśmowych wzrosły w 2021 r. o 10,5 proc. w ujęciu rocznym. W tym samym okresie łączna (skompresowana) pojemność sprzedanych taśm LTO wyniosła około 150 eksabajtów. Dla porównania, rok wcześniej nieznacznie przekroczyła 100 eksabajtów. O sukcesie tego najstarszego, ale nieustannie rozwijanego rodzaju nośnika decydują dwa czynniki: możliwość skutecznego odzyskania danych po udanym ataku ransomware oraz cena, bo koszt 1 TB dla taśm LTO-9 wynosi około 10 dol., zaś nośnik przechowywany na półce nie pobiera prądu.

Zdaniem integratora

Paweł Kaczmarzyk, właściciel, Kaleron Paweł Kaczmarzyk, właściciel, Kaleron  

Dyski mechaniczne i taśmy nieustannie są rozwijane, dlatego uważam, że scenariusz zastąpienia ich przez nośniki SSD w zastosowaniach, w których wydajność nie jest priorytetem, jest w ciągu najbliższych pięciu lat nierealny. Jak do tej pory SSD stało się nieodzownym elementem praktycznie tylko w laptopach. Istnieje wręcz szansa, że to twarde dyski, w miarę upowszechniania i tanienia zapisu wspomaganego energetycznie, będą nawet odzyskiwać utracone obszary rynku, a za pięć lat to właśnie układy flash NAND znajdą się w odwrocie.

Na to, jak wkrótce będzie wyglądał rynek, wpływ będą miały alternatywne technologie zapisu danych, nad którymi cały czas prowadzone są prace, takie jak pamięci zmiennofazowe, elektrochemiczne, magnetorezystywne czy wykorzystujące nanorurki węglowe. Nastąpił także powrót do koncepcji zastosowania materiałów ferroelektrycznych, przy czym bardziej w kierunku wykorzystania zmian wartości rezystancji, a nie samej polaryzacji elektrycznej materiału. W ciągu najbliższych pięciu lat tylko część z tych rozwiązań będzie gotowa do wdrożeń komercyjnych, chociaż trzeba się tutaj liczyć z wysokimi kosztami. Ale z drugiej strony powinny tanieć pamięci zmiennofazowe, które są na rynku od kilku lat. W tym kontekście zagrożone mogą być pamięci DRAM, a zwłaszcza w zastosowaniach, gdzie nieulotność może być atutem przeważającym nad ceną i szybkością.