Firmy, które działają na rynku pamięci masowych, mają lepsze i gorsze pomysły na powstrzymanie powodzi danych. Do tych pierwszych zaliczają się koncepcje Komprise’a i Data Dynamics – przedstawicieli nowej fali, którzy uważają, że cały proces należy rozpocząć od generalnych porządków. Obie wymienione firmy oferują rozwiązania umożliwiające ogarnięcie chaosu w centrach danych, co jest o tyle utrudnione, że większość przedsiębiorstw korzysta z macierzy dyskowych przynajmniej dwóch producentów. Innym palącym problemem są tzw. ciemne dane, które z reguły nie nadają się do wykorzystania, a mimo to są przechowywane na serwerach.

Niemal każdy użytkownik smartfona gromadzi na swoim urządzeniu setki niepotrzebnych zdjęć, wychodząc z założenia, że kiedyś mogą mu się one przydać. Postępowanie użytkowników biznesowych wcale nie różni się od zachowania konsumentów. Przedsiębiorcy również składują terabajty niepotrzebnych plików – zwraca uwagę Krishna Subramanian, COO Komprise’a.

Według różnych szacunków ciemne dane stanowią około 70 proc. cyfrowych zasobów gromadzonych na urządzeniach NAS, ale – przykładowo – w branży mediów i rozrywki odsetek ten sięga 88 proc. 

Komprise działa od 2014 r., sukcesywnie rozwijając oprogramowanie Intelligent Data Management. Identyfikuje ono dane znajdujące się na różnych urządzeniach NAS, a następnie przenosi je na bardziej ekonomiczną platformę, np. do chmury publicznej. Start-up niedawno wprowadził nowe rozwiązanie Deep Analytics, które skraca czas procesu analizy danych o mniej więcej 60 proc. Firma zaprezentowała na grudniowej konferencji AWS re:Invent moduł Cloud Data Growth Analytics analizujący dane przechowywane w chmurze Amazona. Jej usługobiorcy korzystają z różnych opcji i planów taryfowych, w związku z tym ceny usług mogą od siebie odbiegać. Komprise pozwala klientom trzymać rękę na pulsie, informując o tym, kto tworzył dane, jak szybko rosną i jakie są koszty transmisji oraz magazynowania plików. 

Analiza zasobów znajdujących się w chmurze publicznej jest trudniejsza aniżeli w środowisku lokalnym. Często wymykają się one spod kontroli, bowiem pracownicy korzystają z usług, nie informując o tym działów IT – podkreśla Krishna Subramanian.

 

Konkurentem Komprise’a jest Data Dynamics, amerykańska firma oferująca oprogramowanie StorageX, służące do analizy, archiwizacji i migracji plików. StorageX, podobnie jak Intelligent Data Management, współpracuje z macierzami NAS i serwerami bez wsparcia ze strony agentów i stosowania jakichkolwiek bramek. Data Dynamics pod koniec roku nabyło niewielki hinduski start-up Infintus Innovations. Ten zakup umożliwi rozszerzenie funkcjonalności software’u o skanowanie plików lub obiektów pod kątem poszukiwania określonych rodzajów danych, w tym informacji umożliwiających identyfikację użytkownika. Produkty Data Dynamics i Komprise są przeznaczone dla dużych przedsiębiorstw, nierzadko przechowujących petabajty danych. Jak się więc łatwo domyślić, oszczędności często sięgają wysokich kwot. Jeden z klientów Data Dynamics, duża francuska instytucja ubezpieczeniowa, zredukowała w ten sposób ilość operacji backupu o 60 proc. i odnalazła aż 87 proc. ciemnych danych.

Nie bez przyczyny duże zainteresowanie rozwiązaniami do analizy i migracji danych wykazują najwięksi producenci na rynku pamięci masowych. Partnerami Data Dynamics są Lenovo i IBM, a Intelligent Data Management są oferowane przez IBM czy HPE. 

Nowe wymiary pamięci obiektowej

Jedną z najważniejszych zmian, jakie zaszły w ostatnim czasie w segmencie storage’u, było pojawienie się pamięci obiektowej. Technika ta ze względu na stosunkowo niskie koszty wdrożenia (zamiast macierzy dyskowych można wykorzystać serwery x86) oraz niemal nieograniczone możliwości, jeśli chodzi o rozbudowę powierzchni dyskowej, zyskała uznanie m.in. dostawców usług chmurowych. Nie bez powodu dominującym protokołem dostępowym w systemach pamięci obiektowej jest Amazon S3. 

Babu Periasamy, twórca rozproszonego systemu plików Gluster, zauważył, że wielu klientów poszukuje analogicznego rozwiązania, ale takiego, które pracuje w środowisku lokalnym. W ten sposób zrodził się pomysł na opracowanie MinIO – obiektowej pamięci masowej open source. Zdolny i przedsiębiorczy Hindus trafił w gusta developerów – MinIO do końca grudnia ub.r. zdobyło 19,3 tys. gwiazdek (odpowiednik polubień na Facebooku) na platformie GitHub, na której są udostępniane narzędzia open source. Z pamięci obiektowej tego start-upu korzystają przedsiębiorstwa i instytucje już w ponad 150 krajach. Co piąty użytkownik MinIO pochodzi ze Stanów Zjednoczonych, ale oprogramowanie cieszy się też stosunkowo dużą popularnością w Niemczech (8 proc.) i Wielkiej Brytanii (6 proc.).

MinIO ma swoich zwolenników również w Polsce. Stanowią oni około 3 proc. społeczności korzystającej z software’u tej marki. Firma zarabia na usługach wsparcia technicznego, a klienci (oprócz freeware’u) mają do wyboru trzy wersje komercyjne: standard (0,01 dol./GB/miesiąc), enterprise (0,02 dol./GB/miesiąc) i site licence (cena negocjowana). W ramach płatnej oferty mają do dyspozycji tzw. przycisk paniki (panic button), którego naciśnięcie sprawia, że do rozwiązania problemu zostają zaangażowani wszyscy inżynierowie z tej samej strefy czasowej. Ale nie tylko poziom pomocy technicznej ma w zamyśle jego twórcy stanowić wyróżnik MinIO. 

Obiektowa pamięć masowa zazwyczaj jest utożsamiana z niskimi kosztami i wykorzystuje się ją do przechowywania zasobów archiwalnych. Ale nowoczesne przedsiębiorstwa mają inne potrzeby związane z wydajnością i elastycznością, dlatego też dostosowujemy się do nich – tłumaczy Babu Periasamy, CEO i założyciel MinIO.

Oprogramowanie start-upu z siedzibą w Mountain View pracuje m.in. w hurtowniach danych, środowiskach, gdzie są realizowane projekty związane z uczeniem maszynowym jak również przetwarzaniem wielkich zbiorów danych. W benchmarku S3 klaster MinIO, składający się z ośmiu węzłów wyposażonych w nośniki NVMe i pracujący w sieci 100 Gb/s Ethernet, uzyskał sumaryczną prędkość odczytu 46,54 GB/s, a zapisu 34,60 GB/s.Co ciekawe, niemal identyczne wyniki odnotowano podczas testu z zaszyfrowanymi danymi. Warto dodać, że MinIO najwięcej klientów ma wśród firm software’owych (16,4 proc.), a także instytucji finansowych (15,8 proc.).

 

StorCentric – start-up z gatunku dziwnych

Amerykańskie wydanie CRN-a zamieściło StorCentric w gronie „10 najgorętszych start-upów storage 2019”. Jednocześnie autorzy zestawienia przyznali, że to jedna z najbardziej nietypowych młodych firm w branży storage’u. Trudno się z tym nie zgodzić, bowiem działania podejmowane przez szefów StorCentric wyłamują się z utartych schematów.

Nasza strategia polega na kupowaniu producentów walczących o swoją pozycję, a następnie zadbaniu o ich odpowiednią kondycję finansową. Nasi inwestorzy myślą o biznesie długoterminowym. Nie oczekują, że zaczniemy drastycznie ciąć koszty lub gorączkowo poszukiwać nabywców dla pozyskanych przez nas firm – wyjaśnia Mihir Shah, CEO StorCentric.

Choć firma działa zaledwie od 2018 r., zdążyła dokonać czterech akwizycji. Jako pierwsze w portfolio StorCentric pojawiły się NAS-y Drobo. W sierpniu 2018 r. przejęła start-up Nexsan (macierze dyskowe), a w ub.r. pozyskała Retrospect (ochrona danych) i Vexatę (systemy all-flash NVMe). Dzięki przejęciom wymienionych podmiotów start-up ma prawie milion klientów, w tym ok. 40 tys. użytkowników z segmentu enterprise.

W ofercie StorCentric znajdują się, oprócz produktów konsumenckich Drobo, trzy macierze dyskowe E-eries, a także Assureon i Unity, które są przeznaczone dla średnich i dużych przedsiębiorstw. Ostatni z wymienionych systemów ma być rozwijany wyłącznie w wersji programowej i uruchamiany na serwerach x86.

Notabene StorCentric toczy z Dell EMC spór o nazwę Unity. Mihir Shah zapewnia, że Nexan jako pierwszy wprowadził do sprzedaży produkty sygnowane tą marką. Portfolio uzupełnia system Vexata, przeznaczony do obsługi aplikacji krytycznych, takich jak MySQL, Oracle czy SAS. Projektanci systemu oddzielili ścieżki danych i sterowania, powierzając realizację operacji I/O akceleratorowi FPGA (Field Programmable Gate Array). Dzięki temu poziom utylizacji procesora wynosi około 90 proc. Dla porównania w klasycznych macierzach all-flash ok. 30 proc. Vexata może osiągnąć maksymalną wydajność 8 mln IOPS, opóźnienie do 35 ms, a przepustowość 80 GB/s.

Największym problemem w przypadku systemu Vexata jest długi cykl sprzedaży, który czasami wynosił nawet 18 miesięcy. To doprowadziło do tego, że poprzedni właściciel miał kłopoty z zachowaniem płynności finansowej – tłumaczy Surya Varanasi, CTO w StorCentric.

Z kolei atutem dla tej superszybkiej macierzy jest współpraca StorCentric z Fujitsu, oferującym architekturę referencyjną, na którą składa się m.in. system Vexata. Warto dodać, że omawiany start-up nie chce dokonywać konsolidacji działów R&D poszczególnych dywizji. Każda z nich ma równolegle pracować nad dalszym rozwojem poszczególnych grup produktów.

Pieniądze na brzegu sieci

Od pewnego czasu na fali wznoszącej znajduje się infrastruktura hiperkonwergentna. IDC prognozuje, że w latach 2018–2023 globalna sprzedaż HCI (Hyper-Converged Infrastructure) będzie rosnąć w tempie 20 proc. rocznie. Nie jest to jednak łatwy obszar dla nowych graczy ze względu na dominację Dell EMC czy Nutanixa. Niemniej amerykański start-up Scale Computing znalazł dla siebie niszę, która w nieodległej przyszłości może okazać się bardzo zyskowna. Menedżerowie firmy przekonują, że najbardziej opłaca się robić biznes na brzegu sieci. Eksplozja przedmiotów gromadzących, wymieniających i przetwarzających dane, sprawia, że już wkrótce nawet niewielkie firmy będą zmuszone zmierzyć się z zupełnie nowymi problemami.

Przedsiębiorstwa używają kilku różnych systemów komputerowych, obsługujących kasy detaliczne, nadzór wideo i wiele rozmaitych systemów kontroli. Każdy z nich korzysta z osobnej obsługi związanej z zarządzaniem i wsparciem. Poza tym często muszą zatrudnić na pół etatu informatyka. Nasz system nie wymaga personelu, upraszcza zarządzanie infrastrukturą i umożliwia też ograniczenie powierzchni biurowej – wyjaśnia Scott Loughmiller, założyciel i Chief Product Officer w Scale Computing.

Start-up definiuje przetwarzanie na brzegu sieci jako uruchamianie aplikacji krytycznych poza centrum danych lub chmurą publiczną. Jeff Ready, CEO Scale Computing, uważa, że definicja jest ważna, ponieważ określa rzeczywiste potrzeby biznesowe, a tym samym chroni przed wpadnięciem w pułapkę modnych słów i specyfikacji technicznych. Systemy Scale Computing odgrywają rolę mikrocentrum danych pracującego np. w niewielkiej firmie produkcyjnej, która ma łącze do lokalnej serwerowni bądź dostawcy usług chmury publicznej.

Najnowszy produkt HE150 o wielkości zestawu hi-fi, może być zainstalowany w dowolnym miejscu, nie ma potrzeby stosowania szaf rack oraz klimatyzacji. System jest wyposażony w nośniki NVMe i realizuje funkcje związane z ochroną i odzyskiwaniem danych po awarii. Podstawowy klaster składający się z trzech jednostek (każda o wielkości smartfona) kosztuje 5 tys. dol. Idea systemów hiperkonwergentnych Scale Computing sprowadza się do opracowywania kompaktowych jednostek pobierających niewielkie ilości energii, które łatwo można skalować, zapewniających niezawodność niezbędną do wykonywania obliczeń na brzegu sieci. Koncepcja przypadła do gustu Lenovo, które jest jednym z inwestorów start-upu. Pomysłowość przedsiębiorców docenił też amerykański CRN, przyznając Scale Computing w 2019 r. nagrodę CRN Tech Innovator Award. 

Kiedy po raz pierwszy uruchomiliśmy nasze rozwiązanie w 2012 r., mówiliśmy, że nie wszyscy przedsiębiorcy będą migrować do chmury, choć większość ekspertów była innego zdania. Dzięki temu mamy przewagę i udowodniliśmy, że mamy rację – podsumowuje Scott Loughmiller.