Już kilka lat temu w segmencie macierzy dyskowych zanosiło się na zmianę warty. Na razie jednak zmieniło się niewiele i wciąż karty rozdają weterani – Dell Technologies, HPE, NetApp czy IBM. Z młodych graczy jedynie Pure Storage’owi udało się zbliżyć do ścisłej czołówki. Reszta startupów gdzieś przepadła bądź została wchłonięta przez gigantów. Jednak rynek nie znosi próżni i w miejsce tych, którym się nie powiodło, wskoczyli nowi gracze. Lista pretendentów jest dość długa, ale kilka znajdujących się na niej firm zasługuje na większą uwagę. Do tej grupy można zaliczyć Qumulo, Nasuni, Pavilion Data i VAST Data. To gracze, którzy mają spore szanse na to, żeby odegrać niepoślednią rolę w segmencie pamięci masowych. Idea przyświecająca działaniom wymienionej czwórki sprowadza się do stwierdzenia: koniec kompromisów pomiędzy wydajnością oraz pojemnością.

Na polskim rynku, jak na razie, dostępne są jedynie rozwiązania Qumulo. Wynika to z faktu, że amerykańska firma w ostatnich miesiącach rozbudowuje zespół i rozszerza swoją działalność w Europie Środkowo-Wschodniej. Ponadto oficjalnym OEM-em i partnerem strategicznym tego producenta w Polsce jest HPE. Qumulo opracowuje systemy do przechowywania i zarządzania plikami w lokalnej serwerowni i chmurze publicznej. Oprogramowanie tej marki może być instalowane na standardowych serwerach x86, a także występować jako natywna aplikacja w chmurze publicznej. Produkt cieszy się popularnością wśród firm działających w branży szeroko pojętej rozrywki – systemu Qumulo używa dziesięć największych studiów filmowych na świecie. Tego typu klienci zazwyczaj mają specyficzne wymagania i potrzebują rozwiązań, które zapewniają nie tylko dużą pojemność, ale również wysoką wydajność. Ta ostatnia jest konieczna chociażby do renderowania plików wideo. W związku z tym Qumulo obsługuje również konfiguracje obejmujące wyłącznie nośnik flash, co w przypadku rozwiązań typu NAS scale-out było do niedawna rzadko spotykanym zjawiskiem. Warto przy okazji dodać, że jednym z użytkowników Qumulo jest Instytut Metryki i Oceny Zdrowia (IHME) działający przy Szkole Medycznej Uniwersytetu Waszyngtońskiego. IHME codziennie tworzy raporty na temat rozprzestrzeniania się COVID-19 na świecie, w tym również prognozy dotyczące rozwoju epidemii. Instytut wykorzystuje Qumulo do przetwarzania nawet do 2 PB danych dziennie i obsługi wizualizacji na platformie Microsoft Azure.

Podkręcanie tempa

Nie ulega wątpliwości, że dalsze losy rynku pamięci masowych dla klientów biznesowych w znacznym stopniu zależą od rozwoju i spadku cen pamięci flash. Zresztą pokazują to dane dotyczące sprzedaży macierzy dyskowych w regionie EMEA. Według IDC w 2020 r. rynek w ujęciu wartościowym skurczył się o 6,5 proc., aczkolwiek segment systemów all-flash (AFA) wzrósł o niemal 4 proc. Ponadto udziały AFA w całym rynku macierzy dyskowych w regionie EMEA wyniosły 44 proc., podczas gdy w przypadku systemów hybrydowych było to 37 proc., a w segmencie urządzeń wyposażonych jedynie w nośniki HDD – 19 proc.

Rozwiązania AFA posiada w swojej ofercie każdy producent macierzy dyskowych, a do gry włączają się nowi gracze. Każdy z nich stara się zastosować w praktyce jakąś innowacyjną koncepcję i każdy ma swój pomysł na dalszy rozwój systemów tej klasy. Jednym z ciekawszych trendów jest wykorzystanie w systemach pamięci masowych procesorów GPU. W ostatnim czasie do współpracy z Nvidią przystąpiły dwa obiecujące startupy – Pavilion oraz VAST. Doświadczony dostawca półprzewodników niespełna dwa lata temu opracował schemat transmisji danych GPU Direct Storage, który pozwala zestawić bezpośrednią ścieżkę pomiędzy pamięcią masową a procesorami graficznymi. W ten sposób udaje się wyeliminować tzw. wąskie gardła w operacjach wejścia/wyjścia dla aplikacji intensywnie korzystających z danych. W testach przeprowadzonych przez Pavilion podczas przesyłania bloku danych z macierzy AFA do serwera DGX-A100 uzyskano 182 GB/s przy odczycie oraz 149 GB/s przy zapisie. Natomiast w przypadków plików było to 191 GB/s dla odczytu oraz 118 GB/s dla zapisu.

Tak zawrotne prędkości, jak na razie, przydają się tylko w nielicznych zastosowaniach – budowaniu modeli sztucznej inteligencji, analizy zetabajtów danych czy modelowania wolumetrycznego 3D. Na początku bieżącego roku Nvidia oraz VAST Data poinformowały o opracowaniu architektury referencyjnej dla wspólnie skonfigurowanych systemów przeznaczonych do obsługi dużych obciążeń. Natomiast lwia część klientów sięga po tradycyjne rozwiązania, które nie muszą korzystać z tak zaawansowanych technologii. Dlatego właśnie system VAST Data w klasycznej konfiguracji osiąga czterokrotnie niższą przepustowość od wersji z GPU Direct Storage. Co ciekawe, startup wykorzystuje w swoich systemach do przetwarzania danych znane z niezbyt dużej wytrzymałości nośniki QLC. W przypadku tych pamięci cykl zapisów na komórki wynosi 100, podczas gdy w przypadku MLC ten wskaźnik wynosi 10 tysięcy. Pomimo tego VAST Data udziela 10-letniej gwarancji na nośniki, co Jeff Denworth, CMO startupu tłumaczy zastosowaniem wydajnej redukcji danych oraz modelu zabezpieczeń Erasure Coding. Metoda zmniejszania liczby zapisów na dyskach flash obniża koszty całego rozwiązania i zwiększa jego wytrzymałość w porównaniu z klasycznymi macierzami all-flash.

Nietuzinkowe rozwiązania stosuje też Pavilion Data. Szefowie tej firmy stawiają na systemy wyposażone w co najmniej kilka kontrolerów. Ich zdaniem tradycyjna architektura macierzy z dwoma kontrolerami nijak pasuje do obecnych realiów i wymagań użytkowników. Natomiast system pamięci masowej z wieloma kontrolerami pozwala liniowo skalować pojemność i wydajność. Modułowa konstrukcja 4RU sytemu Pavilion Data pozwala na wykorzystywanie 20 aktywnych kontrolerów z portami 40 Gigabit Ethernet oraz 100 Gigabit Ethernet bądź InfiniBand i 72 standardowe dyski SSD NVMe 2,5. System charakteryzuje uniwersalność, o czym świadczy obsługiwanie bloków, plików oraz obiektów.

Migracja do chmury

Prędkość przetwarzania danych to jedno, ale nie mniej istotna jest kwestia ich lokalizacji. W tym przypadku ścierają się dwie szkoły – zwolenników przechowywania zasobów na lokalnych serwerach oraz sympatyków usług chmurowych.

– Ostatnie wydarzenia zmieniają sposób zakupu i użytkowania infrastruktury IT. Wymagania dotyczące modeli konsumpcji podobnych do chmury, w połączeniu z rozproszonym wdrażaniem IT i rozwojem cyfrowej transformacji będą wpływać na innowacje i konkurencyjność w okresie ożywienia – uważa Silvia Cosso, zastępca dyrektora ds. badań w IDC Western Europe.

W ostatnim czasie pojawiło się wiele koncepcji związanych z przechowywaniem danych w środowiskach chmurowych. Na ich tle wyróżnia się projekt amerykańskiego startupu Nasuni, który określa swój produkt jako NAS opracowany specjalnie dla chmury. Firma oferuje w modelu usługowym platformę do przechowywania plików zarówno w środowisku lokalnym, jak i chmury publicznej (AWS, Microsoft Azure, Google Cloud Platform). W rezultacie system Nasuni zapewnia nieograniczoną pojemność pamięci masowej, eliminując potrzebę planowania i przeprowadzania skomplikowanych aktualizacji sprzętu przez klientów za każdym razem, gdy ich zasoby danych przerastają ich wewnętrzną infrastrukturę. Ponadto usługa Nasuni obejmuje tworzenie kopii zapasowych, odtwarzanie danych po awarii i synchronizację plików znajdujących się na wielu serwerach. Rozwiązanie to, jako chyba jedyne na rynku, łączy globalny system plików z magazynem obiektowym.

– Modernizacja centrum danych to ogromna szansa rynkowa dla Nasuni i naszych partnerów. Chcemy dokonać przełomu na rynku przechowywania plików i kopii zapasowych o wartości ponad 30 miliardów dolarów dzięki nowemu podejściu opartemu na chmurze. Pandemia i związane z nią blokady przyspieszyły przejście z tradycyjnej infrastruktury centrum danych do chmury, ale większość pamięci masowych dla przedsiębiorstw nadal znajduje się w centrach danych – podsumowuje Paul Flanagan, CEO Nasuni.