Ruch w dwie strony

W chmurze publicznej może być obecnie przechowywana nawet połowa wszystkich danych biznesowych. Najwięksi hiperskalerzy co roku notują przyrosty zarówno pod względem przychodów, jak i ilości przechowywanych informacji. Jednak ruch nie odbywa się wyłącznie w jedną stronę, gdyż część firm decyduje się na rozwiązania hybrydowe, gdzie dane znajdują się także w środowisku lokalnym. Z danych firmy konsultingowej Aptum wynika, że 77 proc. firm korzysta z chmury publicznej, zaś 86 proc. planuje czerpać korzyści z usług hybrydowych lub wielochmurowych.

– Znaczenie obu tych środowisk rośnie równolegle. Zaczęły być wobec siebie komplementarne, a nie – jak dotychczas – konkurencyjne. Myślę, że to nie pojemność decyduje o opłacalności chmury w archiwizacji, a tempo przyrostu danych, ich rodzaj i częstotliwość dostępu do nich – mówi Jakub Bala, Product Manager w Stovarisie.

W przypadku archiwizacji chłodnych danych chmura publiczna może być dość dobrą opcją. Aplikacje do archiwizacji bądź tworzenia kopii zapasowych pracują w tle, więc jakiekolwiek problemy z wydajnością nie powinny mieć negatywnego wpływu na pracę użytkowników. Niemniej jest i druga strona medalu – menedżerowie IT, którzy spodziewają się oszczędności wynikających z przesuwania zasobów do chmury, mogą wpaść w pułapkę kosztów. Usługodawcy komplikują swoje cenniki, stosując różne stawki i dodatkowe opłaty. Szczególnie uciążliwe dla usługobiorców są koszty związane z pobieraniem danych z chmury. Czasami klienci przechowują zasoby cyfrowe przez dłuższy czas na droższych warstwach, zamiast w archiwach.

– Pięć lat przechowywania petabajta danych w chmurze publicznej kosztuje od 1,2 do 1,5 miliona dolarów. Jesteśmy zazwyczaj tańsi, a takim punktem przełomowym jest 100 TB. Poniżej tej pojemności bardziej opłaca się korzystać z dostawców usług chmurowych, zaś od 100 TB do 400 TB dużo korzystniej wybrać środowisko lokalne – przekonuje Philip Storey, CEO Xen Data.

Ważnym trendem jest rosnąca popularność modelu Storage as a Service. Najwięksi dostawcy macierzy dyskowych dostarczają swój sprzęt, aczkolwiek użytkownik nie płaci za urządzenie, lecz rozliczany jest okresowo za wykorzystanie pojemności.

– W takim scenariuszu klient zobowiązany jest tylko do uiszczania okresowych opłat wynikających wprost z wykorzystanej przestrzeni. Z jednej strony mamy tutaj do czynienia z rozwiązaniem lokalnym, znajdującym się pod pełną kontrolą klienta, zaś z drugiej korzystamy z niego jak z przestrzeni w chmurze – tłumaczy Krzysztof Lorant.

Dysk czy taśma?

Jedną z kluczowych kwestii podczas projektowania cyfrowego archiwum jest dobór odpowiednich nośników. Producenci pamięci masowych podsuwają różne rozwiązania. Najbardziej radykalna jest koncepcja amerykańskiego startupu VAST Data. Jego platforma typu SDS (Software Defined Storage) bazuje na połączeniu pamięci SCM (Storage Class Memory) i QLC, czyli najtańszych nośników SSD. Architektura opracowana przez VAST Data powoduje, że można osiągnąć wysoką wydajność systemu all-flash w cenie zbliżonej do macierzy z dyskami mechanicznymi. Takie rozwiązanie pozwala uniknąć tworzenia kilku warstw w puli pamięci masowej.

Jednak, jak na razie, wciąż najpopularniejszym nośnikiem w cyfrowych archiwach są dyski twarde. Ich producenci nie składają broni, co najlepiej pokazują ostatnie premiery napędów WD oraz Seagate, zapewniających maks. pojemność odpowiednio 26 TB i 30 TB.

– Jednym z ubiegłorocznych trendów jest renesans bibliotek taśmowych. Wynika to głównie z bezpieczeństwa jakie oferuje taśma, a także dyrektyw europejskich NIS2 oraz RCE – zauważa Jakub Bala.

Do innych atrybutów taśm należą niskie koszty przechowywania danych i niewielkie zużycie energii elektrycznej, co jest atutem w czasach, kiedy wszyscy mówią o potrzebie zrównoważonego rozwoju. Co istotne, rozwój technologii taśmowych nie stoi w miejscu, co pokazują przykłady IBM-a, który w ubiegłym roku wprowadził na rynek nośnik o pojemności 150 TB po kompresji. Natomiast konkurencyjny format LTO-9 oferuje 45 TB skompresowanej pojemności. Warto dodać, że w obecnych czasach nie postrzega się taśmy jako pojedynczego nośnika, lecz wdrażane są zautomatyzowane biblioteki przechowujące petabajty danych. Co nie zmienia faktu, iż ten rodzaj nośnika ma pewne mankamenty, takie jak zbyt wolny dostęp do danych, problemy z kompatybilnością wsteczną w przypadku formatu LTO, czy potrzeba zapewnienia klimatyzacji oraz trudności związane z eksploatacją w wilgotnym środowisku.