Według rozmaitych szacunków około 90 proc. danych jest nieustrukturyzowanych, a ich ilość podwaja się co 18-20 miesięcy. Są niemal wszędzie: w lokalnych centrach danych, chmurze publicznej czy na krawędzi sieci. Taki stan rzeczy powoduje, że firmy mają problemy z przetwarzaniem, przechowywaniem i ochroną cyfrowych informacji. Zwłaszcza że większość wykorzystuje serwery i macierze dyskowe, bardzo często pochodzące od kilku vendorów, a co za tym idzie pracują pod kontrolą różnych systemów operacyjnych.

W tym kontekście specjaliści Qumulo, firma pochodzącej ze Stanów Zjednoczonych, stawiają sobie za cel uporządkowanie chaosu w serwerowniach. Opracowany przez nich system Scale Anywhere, może pracować na dowolnych serwerach (Cisco, Supericro, Dell, Fujitsu, HPE i in.) w środowisku lokalnym, chmurze publicznej lub hybrydowej, a także na brzegu sieci. Oprogramowanie obsługuje standardowe protokoły udostępniania plików, a więc NFS, SMB, FTP i S3.

Firma w listopadzie ubiegłego roku wprowadziła na rynek Azure Native Qumulo (ANQ) – natywny system plików w chmurze, który umożliwia migrację danych z tradycyjnych platform NAS. Nowy produkt pozwala przechowywać nieustrukturyzowane dane w jednej przestrzeni nazw na platformie Azure. Usług natywne bazują na wersji autorskiego systemu plików QSFS, wykorzystując specyfikę infrastruktury Azure. W rezultacie użytkownicy płacą za faktyczną konsumują, bowiem dostęp jest czasowy.

We wcześniejszych wersjach produktu Qumulo oferowało interfejs do plików umieszczanych w chmurze AWS i Azure, nie mając kontroli nad pobieraniem i wysłaniem danych. W praktyce Qumulo pełniło wyłącznie rolę działającego pod własną marka odprzedawcy usług IaaS. W ciągu 12 tygodni od premiery, z rozwiązania ANQ skorzystało 26 nabywców. Ogółem Qumulo w ciągu 12 lat działalności pozyskało ponad 1000 klientów w 20 krajach, zaś łączna pojemność przechowywanych przez firmę danych wynosi ponad 4 eksabajty.

Pamięci masowe na koncercie U2

Weka IO, która powstała w 2013 r., działa zgodnie z zasadą: koniec kompromisów w segmencie pamięci masowych. Co w praktyce oznacza, że pojemność systemu nie może ograniczać jego wydajności. Firma opracowała platformę do przechowywania, przetwarzania i zarządzania danymi zarówno w środowisku lokalnym, jak i chmurowym. Niezależnie od liczby węzłów dodawanych do klastra, Weka IO zapewnia stałą wydajność. Rozwiązanie znajduje zastosowanie w placówkach naukowych, instytucjach finansowych, placówkach rządowych, a także w branży mediów i rozrywki.

W ubiegłym roku firma została partnerem technologicznym koncertów U2 „Achtung Baby Shows“ w Las Vegas, dostarczając organizatorowi system o pojemności 1,5 PB danych. Przy czym 500 TB przechowywano na serwerach w Wielkiej Brytanii, a reszta była generowana na żywo w czasie koncertów. Tworzeniem treści zajmowali się animatorzy, kamerzyści i graficy pracujący w różnych częściach globu. W obecnych czasach nie jest to nic nadzwyczajnego, bowiem w takim samym trybie pracują producenci wideo w największych studiach filmowych – od DreamWorks po Marvela. Wyzwania związane z obsługą takich imprez znacznie wykraczają poza sam transfer danych. Treść jest często udostępniana w czasie rzeczywistym, co wymaga globalnej przestrzeni nazw, która gwarantuje właściwą równowagę pomiędzy wydajnością a bezpieczeństwem. W każdym bądź razie nie jest to zadanie dla tradycyjnego serwera NAS bądź macierzy SAN.

Dostawcy rozwiązań muszą nadążać nie tylko za konkurencją, ale przede wszystkim wymaganiami klientów. Warto w tym miejscu dodać, że podczas koncertów U2 w sali umieszczono wyświetlacz powierzchni 148 metrów kwadratowych i rozdzielczości 16K. Wideo renderowane w 16K wymaga 132 megapikseli i 70 TB na każdą godzinę materiału filmowego.

Weka w marcu br. ogłosiła gotowość współpracy swojej platformy z SuperPOD – architekturą referencyjną Nvidii zaprojektowaną pod kątem wdrażania GPU. WEKApod łączy sprzęt oraz oprogramowanie i służy jako magazyn danych dla SuperPOD. Każde urządzenie składa się ze wstępnie skonfigurowanych węzłów pamięci masowej i oprogramowania, co ma uprościć i przyspieszyć wdrożenia. Podstawowa konfiguracja 1 PB w ramach WEKApod zaczyna się od ośmiu węzłów pamięci masowej i skaluje się do setek petabajtów.

Quantum dołącza do wyścigu

Quantum jest utożsamiane z archiwizacją wielkich zbiorów danych. Niemniej w ostatnim czasie producent nieco zmienił kurs, czego potwierdzeniem jest ubiegłoroczna premiera Myriad. Ten system klasy defined storage jest przeznaczony do obsługi nośników NVMe Flash. Zastosowana w nim architektura zapewnia niskie opóźnienia, wysokie przepustowości i wydajność, a także skalowalność (pojedynczy klaster może składać się z tysiąca węzłów). Niemniej w przeciwieństwie do WekaIO, system nie współpracuje z SuperPOD i nie wspiera GPUDirect. Specjaliści Quantum obiecują, że niebawem to się zmieni.

Takie systemy jak Myriad Quantum to znak czasów. Wraz z ekspansją sztucznej inteligencji firmy coraz poważniej myślą o nowej infrastrukturze IT, a dostawcy starają się sprostać tym potrzebom.

Zmieniamy strategię w zakresie danych. Chcemy w większym stopniu bazować na sztucznej inteligencji, tym bardziej, że nasi klienci coraz częściej korzystają z tej technologii. Najlepszym przykładem jest branża filmowa. Twórcy filmów używają sztucznej inteligencji do efektów wizualnych, tłumaczenia języków i tworzenia napisów. Czasami nagrywają sceny z 70-letnimi aktorami, po czym za pomocą mechanizmów sztucznej inteligencji odmładzają ich o kilkadziesiąt lat – mówi Jamie Lerner, CEO Quantum.

To oczywiste, że praca z obrazem wysokiej rozdzielczości i wprowadzanie do niego efektów specjalnych wymaga zastosowania odpowiednich pamięci masowych. Jednak nie tylko klienci z branży mediów i rozrywki zawieszają wysoko poprzeczkę dostawcom systemów do przechowywania i przetwarzania danych. Coraz wyższe wymagania w tym zakresie zgłaszają też placówki naukowe i branża medyczna. Quantum przeprowadziło badanie, w którym zapytało klientów czego oczekują od pamięci masowych. Na pierwszym miejscu znalazł się lepszy wgląd w dane (27 proc.), a na kolejnych wydajne przechowywanie i przetwarzanie (25 proc.) oraz kompleksowe narzędzia do automatyzacji (21 proc.).

Wprowadzenie systemu Myriad nie oznacza, że producent zamierza wycofywać się z segmentu rozwiązań do przechowywania tzw. zimnych danych. Quantum posiada w swoim portfolio między innymi ActiveScale, obiektową pamięć masową do archiwizacji dużych zbiorów danych. Niedawno pojawiła się nowa odsłona tego systemu w wersji all-flash, przeznaczona między innymi dla klientów pracujących z AI. Ofertę producenta z Kolorado uzupełnia system do backupu DXi, a także biblioteki taśmowe.

Backup ze sztuczną inteligencją

Przejęcie Veritasa przez Cohesity to jedna z najciekawszych tegorocznych transakcji na rynku IT. Dla wielu osób stanowiła zaskoczenie, bowiem większość fuzji przebiega w ten sposób, że duży koncern z długim stażem na rynku przejmuje obiecującego młokosa. W tym przypadku było na odwrót. Cohesity powstało w 2013 r., a założycielem firmy jest Mohit Aron, notabene również współtwórca sukcesu Nutanixa. Kalifornijski przedsiębiorca już na samym początku wytyczył obszar działania firmy i wykazuje się dużą konsekwencją.

Nie interesują nas aplikacje krytyczne, które stanowią jedynie wierzchołek góry lodowej. To zaledwie 20 procent danych, cała reszta spoczywa „pod powierzchnią wody” – tłumaczył Mohit Aron.

Aplikacje krytyczne stanowią jedynie wierzchołek góry lodowej

Cohesity dostarcza konwergentne rozwiązanie do ochrony danych, konsolidujące procesy związane z tworzeniem kopii zapasowych, archiwizacją, a także przechowywaniem plików i obiektów oraz analityką biznesową. Po zakupie Veritasu firma stanie się jednym z najważniejszych graczy w segmencie ochrony danych. Baza klientów Cohesity po wchłonięciu konkurenta liczy około 10 tysięcy klientów, zaś pojemność chronionych danych wyniesie 300 EB. Natomiast roczne przychody szacuje się na około 1,6 mld dol.

Żaden klient Veritasu nie ucierpi w wyniku połączenia. To nie jest ten rodzaj transakcji co zakup VMware’a przez Broadcom – podkreśla Sanjay Poonen, dyrektor generalny Cohesity.

Szefowie firmy nie chcą przedstawiać mapy drogowej, dopóki regulatorzy nie zatwierdzą oficjalnie transakcji. Sanjay Poonen nie ukrywa, że pozostawianie konkurentów w stanie niepewności, daje mu nad nimi pewną przewagę.

Cohesity wraz z zakupem Veritasu, zyskuje dostęp do ogromnej ilości danych, a to pomoże w dalszym rozwoju asystenta AI Gaia. Działa on na tożsamej zasadzie jak ChatGPT, z tą różnicą, że posiłkuje się zasobami spoczywającymi na serwerach użytkownika. Co istotne, wszystkie indeksowane dane są dostępne od ręki, bez konieczności i rekonstrukcji kopii zapasowych. W rezultacie chmura Cohesity działa jak jezioro danych, zapewniając w czasie rzeczywistym dostęp do informacji, niezbędnych do analizy i podejmowania decyzji. Może to być ocena poziomu odporności cybernetycznej organizacji, odpowiedź na złożone pytanie prawne czy kontrole finansowe.