Wszyscy producenci klasycznych macierzy dyskowych mają już w ofercie modele all-flash. Na rynku są też dwie firmy – Pure Storage i Kaminario – które nigdy zwykłych macierzy nie produkowały, ale dzięki determinacji osiągnęły rynkowy sukces i są uznawane przez analityków Gartnera za liderów w swoim segmencie rynku. Rośnie także liczba zastosowań, w przypadku których świetnie sprawdzają się urządzenia wyposażone wyłącznie w dyski SSD. To efekt wydajności kilka razy większej niż ma to miejsce w przypadku tradycyjnych macierzy.

Wciąż jednak dyskusyjne jest stosowanie nośników SSD do przechowywania plików i ich backupu, szczególnie w typowym środowisku biurowym. W takim przypadku wzrost wydajności nie zrekompensuje znacznie wyższej ceny zarówno urządzenia, jak i znajdujących się w nim nośników. Macierze all-flash zupełnie nie sprawdzają się też w rozwiązaniach do monitoringu wideo, gdyż zapis w nich ma charakter ciągły i do tego jest wykonywany w trybie sekwencyjnym, a odczyt jest wyjątkowo rzadki. Jeszcze przez pewien czas zdecydowanie tańsza będzie zwykła macierz lub serwer NAS.

Pamięci flash niezmiennie charakteryzują się podstawową wadą, która w stosunkowo niewielkim stopniu dotyczy twardych dysków. Chodzi oczywiście o komórki pamięci, które podczas każdej operacji zapisu tracą elektroniczne właściwości. To sprawia, że w pewnym momencie nie są w stanie przechowywać danych. Ich trwałość określana jest w cyklach zapisu i kasowania. Dlatego dostawcy montują w dyskach SSD specjalne kontrolery, wyposażone w oprogramowanie, które dba o równomierne rozłożenie zapisu danych na całym nośniku, dzięki czemu minimalizowane jest prawdopodobieństwo częstego wykorzystania tych samych komórek pamięci. To szczególnie ważne ze względu na fakt, że kości produkowane w nowszych technologiach są wprawdzie coraz bardziej pojemne i tańsze, ale mniej trwałe – szczegóły w tabelce poniżej. Dlatego jakość zastosowanego w dysku SSD kontrolera i jego oprogramowania zaczęła być ważniejsza niż jakość samych komórek pamięci.

 

NVMe na fali

Interfejsy SATA i SAS, stosowane w dyskach SSD, wprowadzają ograniczenia związane z transferem danych, wśród których najbardziej znaczący jest limit jego prędkości. Dlatego już ponad dziesięć lat temu rozpoczęto prace zarówno nad nowym protokołem transmisji danych, jak i nowym interfejsem urządzeń. Dzięki temu powstał protokół NVMe (Non-Volatile Memory Express) oraz interfejsy M.2 i U.2, które umożliwiły podłączenie pamięci flash bezpośrednio do magistrali PCIe.
Protokół NVMe rozwiązuje problem powodowany przez jedno z podstawowych ograniczeń twardych dysków. Otóż w danym momencie przetwarzają one tylko jedno żądanie, bo głowica dysku nie może znajdować się w dwóch miejscach w tym samym czasie. Siłą rzeczy transfer danych ma w tym przypadku charakter sekwencyjny. Dlatego twórcy interfejsów stosowanych w dyskach w ogóle nie przewidzieli możliwości równoległego przesyłania większej ilości danych, z czym nie ma problemu w przypadku dysków SSD – w jednym cyklu teoretycznie zapewniają wykonanie nawet 64 tys. żądań odczytu.

 

 

 

 

 

Pojawienie się nośników NVMe ujawniło kolejne wąskie gardło, którym jest infrastruktura sieciowa. Dlatego konieczne było zaprojektowanie i wdrożenie protokołu sieciowego, który będzie w pełni zgodny z protokołem NVMe i w żaden sposób nie ograniczy wydajności tych nośników. Nazwano go NVMe-oF (NVM Express over Fabrics) i obecnie sterowniki większości nowych kart sieciowych są już z nim zgodne. Tym samym wdrożenie go w serwerach nie powinno stanowić problemu, choć nie są jeszcze na to gotowi wszyscy producenci macierzy dyskowych, także tych, w których wykorzystywane są nośniki NVMe. Zastosowanie tego typu nośników przynosi ogromną korzyść przede wszystkim w przypadku macierzy dyskowych. Eliminacja interfejsów i podłączenie nośników bezpośrednio do magistrali kontrolera macierzowego pozwoliłyby użytkownikowi na uzyskanie bardzo krótkiego czasu dostępu do danych za ułamek ceny, którą obecnie musi zapłacić za dużą macierz z setkami dysków.

Większość znanych producentów pamięci masowych wprowadziło już nośniki NVMe do swoich macierzy. Nie mają ich jedynie urządznia firm HPE i Fujitsu (obie umożliwiają wykorzystanie ich tylko jako cache SSD), ale zapowiedziano ich premierę na przyszły rok.

Na razie dyski NVMe bardzo dobrze sprawdzają się jako moduły pamięci masowej w rozwiązaniach infrastruktury hiperkonwergentnej oraz dyskiw zainstalowanych tam serwerach. Jednak pełnej popularyzacji dysków NVMe oraz protokołu NVMe-oF należy się spodziewać dopiero w perspektywie kilku najbliższych lat, gdy rozwiązanie to nabierze oczekiwanej w branży IT dojrzałości – mówi Jerzy Skiba, konsultant ds. pamięci masowych w Veracompie.

 

Stosowanie dysków NVMe w infrastrukturze serwerowej ma obecnie ograniczony sens także ze względu na architekturę aplikacji. Większość z nich nie jest gotowa na otrzymywanie tak dużej ilości danych w tak krótkim czasie. Zostały zaprojektowane ze „świadomością”, że dane będą spływały dość wolno ze zwykłych twardych dysków. To kolejna przyczyna, z powodu której nośniki NVMe mogą osiągnąć popularność dopiero za jakiś czas.

Dane na lata

Coraz więcej regulacji prawnych wymusza na firmach konieczność długoterminowego archiwizowania cyfrowych danych – czasem nawet przez kilkadziesiąt lat. Stwarza to wiele wyzwań natury technicznej oraz proceduralnej. Trudno bowiem dziś przewidzieć, z jakiego typu nośników będziemy korzystać za dziesięć lat i czy w ogóle będziemy w stanie „zrozumieć” zgromadzone dane.
Obecnie za najbardziej ekonomiczny, a jednocześnie zgodny z wymogami prawnymi nośnik najczęściej uznawane są taśmy. Od wielu lat wróży się im naturalną śmierć, ale coraz większa liczba ekspertów i analityków branży IT zauważa, że prawdopodobnie prędzej będziemy świadkami zmierzchu twardych dysków. Taśmy mają bowiem wiele zalet i tylko jedną wadę. Do tych pierwszych zaliczyć należy z pewnością fakt, że jest to nośnik wymienny, niezintegrowany z urządzeniem przeznaczonym do jego odczytu, dzięki czemu można go wywieźć z centrum danych i zdeponować w bezpiecznym miejscu, chociażby w bankowym schowku. Tym samym posiadanie bardzo dużej ilości archiwalnych danych w żaden sposób nie wpływa na wysokość rachunku za energię.

Co więcej, chociaż taśmy uważane są przez wielu za przestarzałe rozwiązanie, cały czas technologia zapisu danych na tym magnetycznym nośniku jest rozwijana. Obecnie na jednym kartridżu w standardzie LTO-8 można zapisać 12 TB „surowych” danych (przed kompresją), ale firmy zaangażowane w rozwój standardu LTO Ultrium (HPE, IBM i Quantum) zapowiedziały już jego kolejne cztery wersje. W każdej z nich pojemność jednej taśmy ma być podwajana – LTO-9 zmieści 24 TB, a dostępny w przyszłości LTO-12 aż 192 TB.

Kolejną zaletą taśm jest bezpieczeństwo zgromadzonych danych. Każdy nośnik jest dostępny w wersji WORM (Write Once, Read Many) – po włożeniu go do napędu taśmowego blokowana jest możliwość skasowania wybranych danych lub całej taśmy. Gwarantuje to ich niezmienność, wymaganą przez wiele przepisów. Każde oprogramowanie do backupu ma także funkcję szyfrowania kopiowanych informacji, więc ewentualna kradzież nośnika nie pociąga za sobą żadnych konsekwencji.

 

 

Wadą taśm jest natomiast to, że trzeba nimi w umiejętny sposób zarządzać. Konieczne jest stosowanie oprogramowania indeksującego gromadzone dane, bo bez niego znalezienie właściwego nośnika, szczególnie gdy archiwum jest pokaźnych rozmiarów, graniczy z cudem. Również czas dostępu do danych jest dłuższy niż w twardych dyskach (trzeba znaleźć taśmę, załadować ją do napędu, przewinąć i odczytać dane), ale w przypadku danych z archiwów, do których sięga się nizbyt często, nie stanowi to wielkiego problemu.

Mimo że płyty optyczne coraz rzadziej wykorzystywane są jako nośnik danych przez użytkowników prywatnych i pracowników biur, nadal sprawdzają się w zastosowaniach archiwizacyjnych. Dla przykładu, Panasonic gwarantuje, że na produkowanych przez niego płytach Freeze-Ray można długo przechowywać dane, według przeprowadzonych symulowanych testów nawet przez 100 lat. Zapewniona jest także kompatybilność wsteczna dla odczytu, dzięki której nie ma konieczności systematycznego kopiowania danych na nośniki nowszej generacji.

Płyty to wciąż ciekawa opcja, jeśli chodzi o długoterminowe przechowywanie danych, np. medycznych. Także my daliśmy użytkownikom możliwość integracji tego typu nośników z naszymi serwerami NAS, aby rozszerzyć ich funkcjonalność – mówi Grzegorz Bielawski, Country Manager polskiego oddziału QNAP.

Niektóry producenci systemów pamięci masowych wybiegają daleko w przód, jeśli chodzi o wizje systemów archiwizacyjnych. Jak wspomnieliśmy, największym problemem związanym z pojemnymi
kośćmi pamięci flash jest ograniczona liczba cykli zapisu. Ale w przypadku archiwów wielokrotny zapis nie jest potrzebny. Dlatego teoretycznie nic nie stoi na przeszkodzie, żeby stworzyć bardzo pojemne nośniki SSD, których trwałość wystarczy np. na pięciokrotny zapis danych. Ich cena byłaby zdecydowanie niższa niż oferowanych obecnie dysków flash, a szybkość dostępu do archiwum biłaby wszelkie rekordy.

Nierozwiązana natomiast pozostaje kwestia gwarancji zrozumienia danych w plikach przechowywanych przez dziesiątki lat w cyfrowym archiwum. Oczywiście można założyć, że popularne formaty, w których przechowywana jest grafika czy dokumenty, przetrwają albo powstaną odpowiednie konwertery. Gdy jednak firma z jakiegoś powodu korzysta z własnego formatu danych, konieczne jest zapewnienie jego bardzo szczegółowej dokumentacji, aby w przypadku wycofania danego oprogramowania z użytku możliwe było stworzenie odpowiedniego konwertera.

 

Zdaniem specjalisty

Magdalena O’Dwyer, Product Manager, Synology

Widzimy nieustannie rosnące zainteresowanie macierzami all-flash. Wyzwaniem pozostaje jedynie bardzo częste pojawianie się nowych standardów zapisu w pamięciach flash, co prowadzi do wielu nieporozumień dotyczących przede wszystkim trwałości nośników. Dlatego zawsze zalecamy skrupulatną weryfikację kompatybilności nabywanych nośników z posiadanymi macierzami oraz rezygnację z kupowania  najtańszych dysków, co do trwałości których można mieć wątpliwości.

Wojciech Wróbel, Presales Manager, Fujitsu

Archiwizacja na taśmach sprawdza się przede wszystkim w przypadku bardzo dużych repozytoriów, gdzie korzyści, chociażby nie pobieranie prądu przez nośniki, są rzeczywiście odczuwalne. Widzę jednak kilka scenariuszy, w których z klasycznymi taśmami wygrają macierze dyskowe pełniące funkcję wirtualnych bibliotek taśmowych lub NAS-ów ze specjalnym oprogramowaniem wspierającym procesy archiwizacji cyfrowych danych. Ich zastosowanie ma sens tam, gdzie archiwum jest niewielkie, a klienci muszą relatywnie często uzyskiwać dostęp do danych, na przykład w celu ich analizy umożliwiającej wyciąganie wniosków pomocnych w podejmowaniu decyzji biznesowych.

Marcin Zmaczyński, Head of Marketing CEE, Aruba Cloud

Operator usług chmurowych powinien zapewniać pełne bezpieczeństwo zgromadzonych danych oraz zgodność procesów ich przetwarzania z obowiązującymi przepisami. RODO wymaga, aby nie opuszczały one Unii Europejskiej i nigdy nie były dostępne dla niepowołanych osób ani wykorzystywane w żaden niewłaściwy sposób. Dzięki temu klienci mogą bezpiecznie powierzyć integratorom wszelkie dane i zachować pewność, że nie narażą się na kary. Dodatkowym argumentem dotyczącym bezpieczeństwa jest deklaracja ze strony usługodawcy, że gwarantuje zgodność swoich praktyk z Kodeksem Postępowania CISPE, czyli Europejskiego Zrzeszenia Dostawców Usług Chmurowych.

 

 

Z centrum danych do chmury

Już od niemal dekady wzrost ilości generowanych i przechowywanych przez firmy danych nie idzie w parze ze wzrostem środków przeznaczonych na systemy pamięci masowych. Budżety są relatywnie stałe, co powoduje, że przedsiębiorcy muszą szukać sposobów redukcji objętości danych (do najpopularniejszych należą deduplikacja i kompresja) lub innych sposobów ich przechowywania. W tej dziedzinie wiele do zaoferowania mają dostawcy rozwiązań chmurowych. Ostatnie lata wyłoniły niekwestionowanych liderów tego rynku. Jako pierwszy swoje usługi Simple Storage Services (S3) zaczął oferować Amazon Web Services. Później dołączył do niego Microsoft (Azure Storage), a następnie Google z usługą Cloud Storage.

Początkowo jednak usługodawcy nie dysponowali globalną infrastrukturą, która zapewniłaby małe opóźnienia w transmisji danych, a także zgodność z regulacjami prawnymi. W efekcie mogliśmy zaobserwować pojawianie się lokalnych – polskich lub europejskich – usługodawców zapewniających, że oferują usługi pamięci masowych w chmurze. Wierzyli oni, że na powodzenie ich działalności wpłynie projektowane wówczas RODO oraz cały czas aktualizowane ustawodawstwo branży medycznej i finansowej.

Realia rynkowe zweryfikowały jednak ich ofertę i model działalności chmurowej. Naturalnie niemożliwe było osiągnięcie takiego efektu skali jak najwięksi na tym rynku, siłą rzeczy różnice cenowe też były znaczne. Trudno było także określić poziom bezpieczeństwa infrastruktury zapewniany przez rodzimych dostawców. Mocnym argumentem pozostawała zgodność z regulacjami prawnymi, ale wraz z rozszerzaniem działalności globalnych dostawców na kolejne kraje i kontynenty – w tym otwieranie lokalnych centrów danych lub podpisywanie umów partnerskich z działającymi już wcześniej niezależnymi operatorami centrów danych – przestało to mieć kluczowe znaczenie. Prawnicy największych usługodawców chmurowych dokonali wielu ekspertyz, które dowodzą, że korzystanie z ich usług w większości przypadków nie narusza lokalnego prawa. Duże koncerny zaczęły także wygrywać publiczne, lokalne przetargi. Przykładem z polskiego podwórka jest przesyłanie Jednolitych Plików Kontrolnych do Ministerstwa Finansów w usłudze Microsoft Azure. Natomiast dla przedsiębiorców koronnym argumentem – jak w przypadku większości innych decyzji związanych z infrastrukturą IT – stała się cena.

 

Bloki, pliki i obiekty

Dane w infrastrukturze chmury publicznej – podobnie jak na twardych dyskach serwerów i macierzy dyskowych w lokalnej serwerowni – mogą być przechowywane w blokach, obiektach i plikach. Model blokowy, znany przede wszystkim z sieci Storage Area Network, wykorzystywany jest głównie do udostępniania baz danych i środowisk wirtualnych. Natomiast chmurowe serwery plików służą przede wszystkim do dzielenia się nimi ze współpracownikami lub osobami z zewnątrz (partnerami biznesowymi, klientami itp.).

Jednak najpopularniejszy w chmurze i gwarantujący największą elastyczność stał się model obiektowy. Dzięki dodatkowej warstwie wirtualizacyjnej użytkownika nie obchodzi, w jaki techniczny sposób przechowywana jest dana informacja. Interesuje go jedynie konkretny obiekt – utwór muzyczny, grafika, wideo, repozytorium kopii zapasowych, zreplikowana baza danych itd. Główną zaletą takiej formy składowania danych jest ogromna skalowalność, zarówno pod względem liczby obiektów, jak i ich rozmieszczenia geograficznego (komunikujące się ze sobą serwery mogą znajdować się na różnych kontynentach i replikować między sobą dane, aby zagwarantować użytkownikowi dostęp do nich bez opóźnień).

W większości przypadków za korzystaniem z chmurowych usług przechowywania danych przemawia płatność za rzeczywiście wykorzystane zasoby. Ma to szczególne znaczenie dla mniejszych przedsiębiorstw, w których inwestycja we własne centrum danych (zarówno koszt stworzenia infrastruktury, jak i wyposażenia) stanowi istotną barierę, a w przypadku niepowodzenia biznesu bardzo szybko może sprowadzić firmę na dno. Wspomniany sposób rozliczania jest także preferowany przez partnerów – z reguły otrzymują od operatorów centrów danych comiesięczną prowizję za poleconych klientów lub współpracują z dostawcami usług w modelu white label, w ramach którego sami wykupują abonament i tworzą własne usługi z wykorzystaniem chmurowych zasobów. Tak duża swoboda i elastyczność zapewniają możliwość skupienia się na własnym biznesie i pozostawienie zarządzania infrastrukturą IT profesjonalistom.