Nadmiar cyfrowych informacji czasami prowadzi do wręcz komicznych sytuacji. Według IDC firmy oraz instytucje tracą około 20 proc. na tzw. wynalezienie koła, czyli zajmują się analizą danych, które już wcześniej były przedmiotem badań. Oczywiście tempo ich przyrostu różni się w poszczególnych przedsiębiorstwach. Z pewnością jest wyjątkowo szybkie w przypadku firm, które pracują nad innowacyjnymi projektami. Przykładowo, jeden z klientów StrongBox Data prowadzi szeroko zakrojone badania, których celem jest rozwój autonomicznych samochodów. Kiedy obie firmy nawiązały współpracę, dzienny przyrost danych wynosił około 150 TB, aby po jakimś czasie osiągnąć poziom 2 PB.

Flagowym produktem Strong Box Data jest platforma StrongLink, przeznaczona do zarządzania zasobami przechowywanymi na heterogonicznych systemach pamięci masowej. System obsługuje pliki znajdujące się zarówno w chmurze publicznej, jak i środowisku lokalnym, radzi też sobie z różnymi rodzajami nośników – twardymi, pamięciami flash oraz taśmami. StrongLink jest bezagentowy i wdrażany na maszynach wirtualnych lub rozwiązaniach sprzętowych. Z platformy korzysta Niemieckie Centrum Opracowań Klimatologicznych, które gromadzi 150 PB danych na pięciu bibliotekach taśmowych pochodzących od różnych producentów.

– Organizacje prowadzące operacje na dużych zbiorach danych często zadają sobie pytania: co mam, gdzie to aktualnie się znajduje, w jakim miejscu powinno być umieszczone, jak korzystają z tego pracownicy. Zastosowanie naszej platformy powoduje, że tego typu dylematy znikają – tłumaczy Floyd Christofferson, CEO StrongBox Data.

Dane niczym zombie

O dane klientów korporacyjnych ze Strong Box Data konkuruje startup Komprise. Platforma Komprise Intelligent Data Management służy do obsługi nieustrukturyzowanych danych, a także ich archiwizacji, analizy, umożliwiając dostęp do plików oraz obiektów umieszczonych w chmurach publicznych bądź lokalnych centrach danych. System nie wykorzystuje żadnych agentów, bazuje na otwartych standardach i zapewnia natywny dostęp z dowolnej lokalizacji.

     – Naszym celem jest uzmysłowienie menedżerom, że istnieje zjawisko, które określamy jako „dane zombie”. Firmy niepotrzebnie tracą mnóstwo czasu, energii i pieniędzy na przechowywania i przetwarzania zbędnych zasobów cyfrowych – tłumaczy Krishna Subramanian, COO Komprise.

Założyciele tego kalifornijskiego startupu z siedzibą w Campbell twierdzą, że mnogość rozwiązań oferowanych na rynku pamięci masowych pogłębia chaos, a firmy popełniają kardynalne błędy, takie jak kupowanie nadmiarowej przestrzeni dyskowej czy traktowanie chmury jako taniej szafki do przechowywania plików. Niektórzy klienci Komprise przyznają, że udało im się zredukować koszty związane z backupem oraz przechowywaniem informacji nawet o 70 proc., inni wskazują na kilkunastokrotne przyspieszenie procesu migracji danych. Krishna Subramanian przyznaje, że trwająca pandemia nie wpływa negatywnie na prowadzony biznes. Wręcz przeciwnie, w ubiegłym roku pojemność nieustrukturyzowanych danych usługodawców, którymi zarządza Komprise wzrosła o 380 proc. Na liście klientów tej firmy znajduje się wiele znanych koncernów, w tym Pfizer, ATT, Qualcomm czy Raytheon. Niewykluczone, że już wkrótce firma pozyska nowych klientów na Starym Kontynencie w styczniu podpisała ogólnoeuropejską umowę z Tech Datą.

(De)centralizacja w hurtowniach danych

Przyrost danych to tylko jedno z wyzwań stojących przed dużymi przedsiębiorstwami. Nie mniej uciążliwe staje się zapanowanie nad złożoną infrastrukturą, która sprawia, że firmy gubią się w gąszczu cyfrowych zasobów. W efekcie, według IDC, pracownicy mogą spędzać nawet ponad 70 proc. swojego czasu na wyszukiwanie i przygotowywanie danych do analizy.

     – Dlatego ze swojej strony zamierzamy zapewnić naszym klientom elastyczność w realizacji zadań analitycznych w oparciu o ich środowiska lokalne i chmurowe. Wiele organizacji zainwestowało poważne środki finansowe w infrastrukturę lokalną, aby zarządzać swoimi danymi. Nie zamierzają z tego zrezygnować, a przenoszenie wszystkiego do chmury nie ma sensu. Zauważamy, że firmy stawiają na hybrydowe podejście do analityki – mówi George Shahid, CEO Datameer.

Ta kalifornijska firma oferuje chmurową platformę obsługującą pełny cykl życia danych – od ich odkrywania, poprzez analizę i transformację z różnych źródeł, aż po katalogowanie artefaktów analitycznych. Datameer działa na rynku od dwunastu lat i skupia przede wszystkim klientów z sektora finansowego, w tym HSBC, Deutsche Bank, Citi czy American Express. Najnowsze rozwiązanie Datameer Spotlight zapewnia użytkownikom dostęp do dowolnego źródła danych – zarówno w środowisku lokalnym, jak i chmurze, w tym hurtowni danych i jezior danych oraz dowolnych aplikacji. Platforma pozwala łączyć i tworzyć nowe wirtualne zestawy danych za pośrednictwem interfejsu wizualnego (lub edytora kodu SQL dla bardziej zaawansowanych), bez konieczności replikacji danych.

– Obecne podejście do wykorzystania informacji do celów analitycznych nie zmienia się od prawie trzech dekad. Organizacje przesyłają wszystkie dane przedsiębiorstwa do scentralizowanej hurtowni danych lub jeziora danych, co jest kosztownym i czasochłonnym procesem – zauważa George Shahid.

Udane debiuty takich firm jak Snowflake czy Fivetran, oferujących usługi w chmurze publicznej, ożywiły nieco skostniały rynek pamięci masowych. Dzięki temu użytkownicy nie muszą inwestować w nadmiarową pamięć masową i dokonywać lokalnych obliczeń. Niestety, podstawowy paradygmat duplikowania i centralnego przechowywania danych, pozostaje taki sam. Datameer zachęca przedsiębiorców do podjęcia odważniejszych kroków. Ale trudno powiedzieć, czy niewielkiej firmie uda się przełamać hegemonię wymienionych wcześniej firm i weteranów, takich jak Oracle, Teradata czy Informatica.

SaaS: dane bez ochrony

Migracja zasobów do chmury publicznej nie zwalnia szefów działów IT od odpowiedzialności za dane. Szczególnie ciekawym przypadkiem jest rynek SaaS. Microsoft, AWS czy Salesforce zobowiązują się do zapewniania dostępności usług, zachowania prywatności przechowywanych informacji czy fizycznej ochrony infrastruktury. Nie biorą natomiast odpowiedzialności za tzw. zagrożenia wewnętrzne, czyli przypadkowe skasowanie danych, sabotaż ze strony pracowników czy cyberataki. Niestety, większość użytkowników nie zdaje sobie z tego sprawy, aż do czasu pierwszej utraty danych. Dostawcy usług nie kwapią się zbytnio do tego, żeby uświadamiać klientów, tym bardziej, że na nieroztropnych użytkownikach można nieźle zarobić. Na przykład Salesforce każe sobie płacić za odzyskanie danych 10 tys. dol., a czas oczekiwania na realizację usługi to 6 do 8 tygodni.

To wszystko nie zmienia faktu, że segment systemów backupu dla SaaS rozwija się w ostatnim czasie dość dynamicznie. Największe możliwości wyboru mają użytkownicy Office 365, którzy mogą korzystać z rozwiązań takich producentów jak Acronis, Barracuda, Commvault czy Veeam. Od niedawna do tego grona dołączył amerykański startup HYCU. Pierwszym produktem HYCU było oprogramowanie do backupu systemów Nutanix, które zadebiutowało na rynku niespełna trzy lata temu. Było to unikalne rozwiązanie na rynku i żaden z producentów nie zdecydował się na podobny krok. Od tego czasu ten startup, z siedzibą w Bostonie, powoli rozwija ofertę dokładając narzędzia do backupu dla Google Cloud, AWS czy Microsoft Azure. Najnowszy produkt HYCU Protégé dla Microsoft Office 365 zapewnia natywne tworzenie kopii zapasowych i odzyskiwanie w chmurze dla Outlooka, Teams, SharePointa, OneDrive’a i OneNote’a. W segmencie systemów do backupu Office 365 robi się więc coraz bardziej tłoczno.