Całkiem nieoczekiwanie modelowym przykładem bezradności stały się w ostatnim czasie Stany Zjednoczone, skąd wywodzą się, bądź co bądź, najwięksi dostawcy systemów bezpieczeństwa IT. Tymczasem właśnie zza oceanu już od pewnego czasu wysyłane są dziwne sygnały, jak chociażby kuriozalny apel Joe Bidena do Władimira Putina, aby obie strony zobowiązały się do zaniechania cyberataków na 16 wyznaczonych sektorów biznesowych. Niewiele później Departament Stanów Zjednoczonych poinformował, że stawia na proaktywną ochronę danych i obiecuje nagrody w wysokości 10 mln dol. za udzielenie informacji o cyberprzestępcach i planowanych przez nich atakach.

Ciekawe trendy występują przy tym na rynku ubezpieczeń. W pierwszym kwartale br. wartość zawieranych polis wzrosła na świecie średnio o 18 proc., ale ceny cyberpolis skoczyły niemal o 30 proc. Może to świadczyć o malejącym zaufaniu do rozwiązań zabezpieczających infrastrukturę i dane, a także desperacji nękanych cyberatakami firm.

Czy vendorzy spróbują podjąć działania, aby odzyskać tracony powoli prestiż? Wszak od dawna mówi się, że solidny i sprawdzony system do backupu stanowi ostatnią linię obrony przed cyberatakami. Co więcej, może być lepszym rodzajem ubezpieczenia niż polisa towarzystwa ubezpieczeniowego. Tym bardziej, że ta ostatnia nie pokryje kosztów utraty klientów. Poza tym, jak donosi IDC, aż 57 proc. klientów branży ubezpieczeniowej na świecie nie poleciłoby nikomu usług swojego aktualnego towarzystwa ubezpieczeniowego…

Szybkie tempo zmian? Nie każdy to potwierdza

Analitycy Gartnera prognozują, że do końca 2022 r. aż 40 proc. przedsiębiorstw uzupełni lub całkowicie wymieni oprogramowanie służące do ochrony danych. Gdyby te przewidywania się sprawdziły, dostawców rozwiązań czeka w najbliższych kilkunastu miesiącach wyjątkowo gorący okres. Paweł Mączka, CTO Storware’a, nie jest zaskoczony przewidywaniami Gartnera.

– W ostatnich latach nastąpił wyraźny podział rynku backupu na dwie części – tłumaczy Paweł Mączka. – Pierwszą z nich tworzą producenci oferujący rozwiązania bazujące na architekturze lat 90., zaś drugą nowa fala graczy, którzy budują produkty bazujące na innowacyjnych mechanizmach. Forsowana od wielu lat filozofia D2D2T odchodzi powoli do lamusa. Firmy coraz częściej wykorzystują deduplikatory czy pamięć obiektową. Tym, co dodatkowo skłania klientów do poszukiwania nowych rozwiązań, jest rozwój usług chmurowych, a także konteneryzacja.

Warto z uwagą śledzić trendy obecne na rynku ochrony danych, a także błyskawicznie reagować na zagrożenia. Jednak nie wszyscy eksperci zgadzają się z przewidywaniami Gartnera. Wprawdzie nie negują potrzeby wprowadzenia innowacji, ale nie wierzą w tak szybkie tempo zmian, bowiem większość firm zazwyczaj przeprowadza tego typu procesy powoli i z rozwagą.

– Nie spodziewam się rewolucji w takiej skali, jak to przewiduje Gartner – mówi Jarosław Mikienko, niezależny konsultant ds. ochrony danych. – Nawet pojawienie się przełomowej technologii nie spowoduje lawinowej wymiany. Oczywiście, stosowane obecnie rozwiązania będą uzupełniane, a na rynku zadebiutują gracze proponujący rozmaite nowinki. Jednak użytkownicy, zanim zaczną w końcu z nich korzystać, najpierw je sprawdzą i dokładnie przetestują.

Co z tym ransomware’em?

Tak czy inaczej, prawdopodobnie będziemy świadkami interesującej rywalizacji w segmencie produktów zabezpieczających dane w usługach SaaS, infrastrukturze hiperkonwergentnej czy też środowiskach kontenerowych. Ale najbardziej frapujące wydają się być zmagania dostawców narzędzi do backupu z gangami ransomware.

Ofiary tego typu ataków często wychodzą z niesłusznego założenia, że zapłacenie haraczu za odszyfrowanie danych oznacza koniec kłopotów. Znamienny jest przypadek Colonial Pipeline, które przekazało napastnikom 4,4 mln dol. Niestety, koncern musiał skorzystać z własnych kopii zapasowych, ponieważ udostępnione przez gang DarkSide narzędzie działało zbyt wolno.

Z kolei serwis internetowy Wired.com w artykule „Ransomware’s Dangerous New Trick Is Double-Encrypting Your Data” przedstawia proceder, który polega na tym, że cyberprzestępcy wdrażają dwa rodzaje złośliwego oprogramowania. W rezultacie poszkodowana firma odszyfrowuje swoje dane, ale odkrywa, że w rzeczywistości nadal nie ma do nich dostępu. Oba przykłady pokazują jak ważny jest w obecnych czasach backup.

– To jest wojna i nieustający wyścig zbrojeń – mówi Przemysław Sot, Data Protection Consultant w Net-o-logy. – Producenci oprogramowania stale rozwijają mechanizmy wykrywania działania ransomware’u oraz ochrony kopii przed zaszyfrowaniem. Z drugiej strony twórcy złośliwego oprogramowania skupiają coraz większą uwagę na możliwości zaszyfrowania także kopii zapasowych.

Gangi ransomware dążą do naruszenia kopii, bowiem ofiara tracąca dostęp do backupu, staje się bardziej zdesperowana, a tym samym skłonna zapłacić okup. Ponadto, system tworzenia kopii zapasowych wskazuje miejsca przechowywania krytycznych danych w infrastrukturze IT. Zdobycie tak cennych informacji pozwala napastnikom lepiej ukierunkować swoje ataki. Dostawcy oprogramowania starają się maksymalnie utrudnić życie cyberprzestępcom, wprowadzając dodatkowe funkcje. Według Gartnera, kluczową rolę w zabezpieczeniu kopii zapasowych odgrywają takie funkcje jak: blokowanie możliwości zmiany treści przechowywanych plików, uwierzytelnianie wieloskładnikowe dla kont administracyjnych czy rozdzielenie ról administracyjnych.

Analitycy doradzają również integrowanie systemów pamięci masowych z oprogramowaniem do backupu oraz tworzenie wielu kopii zapasowych. Firmy przez lata stosowały zasadę 3-2-1 (trzy kopie danych, na dwóch różnych typach pamięci masowej, z jedną kopią odizolowaną poza siedzibą firmy). W przeszłości najczęściej wiązało się to z ręcznym kopiowaniem taśm lub innymi metodami tworzenia dodatkowych, odizolowanych od podstawowego systemu kopii. Obecnie większość aplikacji umożliwia tworzenie dodatkowych kopii danych w miejscu odtwarzania po awarii lub w infrastrukturze dostawcy chmury publicznej.

Niektórzy producenci włączają do swoich systemów backupu mechanizmy pozwalające wykryć ataki. Jedną z metod jest wykrywanie anomalii. Oprogramowanie wykorzystuje mechanizmy uczenia maszynowego do obserwacji nietypowych zdarzeń, takich jak znaczące zmiany w wielkości wykonywanej codziennie przyrostowej kopii zapasowej. Kolejnym sposobem jest skanowanie skopiowanych danych pod kątem występowania złośliwego oprogramowania. Oczywiście, narzędzia do tworzenia kopii zapasowych nie wypełnią wszystkich luk w ochronie, aczkolwiek mogą wnieść cenny wkład w system bezpieczeństwa.

Zdaniem specjalisty 

Radosław Rafiński, Channel Manager CEE, Barracuda Networks Radosław Rafiński, Channel Manager CEE, Barracuda Networks  

Firmy już od kilku lat migrują swoje systemy informatyczne do chmury. Tym samym tracą rację bytu te rozwiązania do tworzenia kopii zapasowych, które działają lokalnie. Ich wykorzystywanie do zabezpieczania danych w chmurze jest bardzo nieefektywne, zarówno ze względów technicznych, jak i finansowych. Dobre rozwiązanie powinno funkcjonować blisko systemów klienta, aby backup działał możliwie szybko i nie obciążał firmowych łączy, czyniąc je wąskim gardłem. Dlatego optymalnym rozwiązaniem do backupu danych przetwarzanych w chmurze jest rozwiązanie również działające w chmurze, takie jak Cloud-to-Cloud Backup.

  
Przemysław Mazurkiewicz, EMEA CEE Presales Director, Commvault Przemysław Mazurkiewicz, EMEA CEE Presales Director, Commvault  

Przedsiębiorstwa powinny cały czas analizować swoje potrzeby w zakresie ochrony danych. Warto obserwować nie tylko trendy opisywane przez analityków, ale również reagować na zagrożenia, a szczególnie ransomware. Solidny i sprawdzony system do ochrony danych stanowi ostatnią linię obrony przed atakiem hakerskim – jest ubezpieczeniem od zdarzeń, które mogą doprowadzić do upadku firmy. Hybrydowy model pracy stwarza też konieczność ochrony wykorzystywanych w tym trybie laptopów czy innych rodzajów urządzeń końcowych, na których, według analityków IDC, do końca 2023 roku znajdzie się 60 proc. wszystkich danych na świecie. Spójny system łączący backup i odzyskiwanie danych dla środowisk lokalnych, chmury publicznej i urządzeń końcowych staje się jedną z najistotniejszych potrzeb zgłaszanych przez klientów biznesowych.

  
Paweł Chruściak, Data Protection Solutions Sales Representative Large Institutions and Public, Dell EMC Paweł Chruściak, Data Protection Solutions Sales Representative Large Institutions and Public, Dell EMC  

Wzrost świadomości na temat bezpieczeństwa danych w przypadku modelu SaaS stymulowany jest często doniesieniami prasowymi o awariach skutkujących utratą danych. Zdarzenia tego typu najlepiej działają na wyobraźnię użytkownika. Wzrost popularności SaaS wymusza zwiększenie świadomości dotyczącej możliwych zagrożeń w przypadku potencjalnych klientów. Odpowiednie zabezpieczenie danych w przypadku SaaS powoduje wzrost kosztów usługi, co raczej nie zachęca oferentów do skupiania się na tym elemencie. W efekcie takie podejście może być akceptowane przez użytkownika w przypadku danych niekrytycznych bądź powodem do zmiany usługodawcy.

  
Paweł Mączka, CTO, Storware Paweł Mączka, CTO, Storware  

W ostatnim czasie coraz więcej mówi się o potrzebie ochrony danych w środowiskach kontenerowych oraz konieczności zapewnienia ich wysokiej dostępności na wypadek katastrofy, jak też szybkiego przywracania infrastruktury do pracy. Zainteresowanie tym tematem wykazują zarówno rodzimi klienci, jak również integratorzy. Lwia część środowisk kontenerowych korzysta z tak zwanych trwałych woluminów (persistent volumes) w celu zachowania stanu danych, chociażby na potrzeby bazy danych. Dodatkowo projekty oraz adaptacja środowisk kontenerowych w chmurach publicznych zachęcają klientów do wdrożenia strategii chmury hybrydowej. W tym przypadku rola backupu również może mieć duże znaczenie w procesie migracji danych, ich odtworzenia w lokalizacji zdalnej itp.

  

Presja czasu

Dostawcy systemów do backupu starają się sprostać rosnącym oczekiwaniom użytkowników biznesowych. Z jednej strony wprowadzają nowe funkcje, zaś z drugiej dążą do tego, aby ich produkty zapewniały coraz krótsze czasy RPO (Recovery Point Objective – moment w przeszłości, z którego można odzyskać dane) i RTO (Recovery Time Objective – czas potrzebny na przywrócenie systemu do pracy po awarii). Niestety, firmy często mają problem ze zdefiniowaniem swoich potrzeb związanych z ochroną danych. Jarosław Mikienko uważa, że najwięcej kłopotów przysparza użytkownikom prawidłowe oszacowanie czasu RTO.

– Proces ten wymaga zaangażowania wielu działów w danej firmie i wykracza daleko poza obszar IT – mówi Jarosław Mikienko. – Zachęcam jednak do próby określenia wartości RTO dla swoich danych. Takie ćwiczenie pomoże obniżyć bieżące koszty operacyjne i zoptymalizować wydatki inwestycyjne.

Choć producenci analizują rynek i przeprowadzają badania, dzięki którym mogą lepiej poznać preferencje swoich klientów, to wyniki tego typu sondaży zafałszowują obraz. Informacja, że średni tolerowany przez firmy czas przestoju systemu IT wynosi na przykład dwie godziny, może okazać się złudna. Trudno na przykład uwierzyć, że podróżni ze spokojem przyjmą informację o dwugodzinnym oczekiwaniu na odbiór bagażu na lotnisku. Z drugiej strony są firmy korzystające intensywnie z systemów informatycznych w określonych przedziałach czasu – na koniec tygodnia albo miesiąca. W takich przypadkach inwestycja w rozwiązania z najwyższej półki absolutnie nie znajduje ekonomicznego uzasadnienia.

– Ciągłość biznesowa powinna być zdefiniowana w każdym przedsiębiorstwie osobno, nie można wrzucać wszystkich do jednego worka – podkreśla Paweł Mączka. – Należy też zwrócić uwagę, że za procesy biznesowe oraz odzyskiwanie danych po awarii powinno odpowiadać nie tylko oprogramowanie do backupu. Bardzo ważne jest zapewnienie redundancji dla kluczowych komponentów w warstwie niższej: serwerów, pamięci masowych czy urządzeń sieciowych.

Backup dla SaaS

Przenoszenie operacji IT do chmury publicznej nie jest procesem łatwym i przyjemnym. Co gorsza, firmy nie zawsze rozumieją reguły obowiązujące w nowym środowisku, w tym również te związane z ochroną danych. W tradycyjnym podejściu aplikacja znajduje się na serwerze umiejscowionym w lokalnym centrum danych, podobnie jak system do backupu. Zgoła odmiennie wygląda to w modelu SaaS, w którym oprogramowanie jest uruchamiane i zarządzane w chmurze przez zewnętrznego dostawcę. Nie bierze on jednak odpowiedzialności za cyfrowe zasoby klienta i tutaj pojawia się duży rozdźwięk, bowiem użytkownicy często mylą dostępność samej usługi z możliwością odzyskania przetwarzanych w jej ramach danych.

Jak wynika z badania ESG, aż 35 proc. respondentów uważa, że to dostawca SaaS odpowiada za backup, zaś jedynie 13 proc. ma odmienne zdanie. Według Christophe’a Bertranda, analityka ESG, bardziej beztrosko do ochrony danych w chmurze podchodzą młode firmy, które wcześniej nie miały doświadczeń z własną infrastrukturą IT. Z kolei przedsiębiorstwa o dłuższym rodowodzie są mniej ufne wobec usługodawców i zdają sobie sprawę z tego, że ponoszą pełną odpowiedzialność za backup danych z aplikacji SaaS.

Jeśli chodzi o samą ofertę producentów systemów do backupu, potencjalni nabywcy nie mogą narzekać na brak wyboru. Rozwiązania do ochrony Microsoft 365 posiada w ofercie każdy liczący się dostawca oprogramowania do backupu, a coraz częściej pojawiają się też produkty adresowane dla użytkowników Salesforce’a czy Google Workspace.

Zdaniem integratora

Przemysław Sot, Data Protection Consultant, Net-o-logy  

Obserwujemy rosnącą świadomość klientów w zakresie posiadania systemu backupu dopasowanego do zmieniających się wymagań. Coraz rzadziej środowisko produkcyjne klienta bazuje tylko i wyłącznie na własnej serwerowni, a część systemów produkcyjnych wyniesiona jest do szeroko pojętej chmury. Często są to też usługi, takie jak Microsoft 365, które również wymagają specjalnej ochrony. Z tego powodu istniejące środowiska backupu wymagają modernizacji lub też wymiany, gdyż istniejący system nie jest w stanie sprostać nowym potrzebom. W ostatnich miesiącach obserwujemy duży wzrost zainteresowania klientów tematem ochrony środowisk SaaS i chmurowych. Jako integrator uświadamiamy ich w zakresie współdzielonej odpowiedzialności za dane i wynikających z tego obowiązków.

  

Najważniejsze kierunki rozwoju

Rynek narzędzi do backupu i odzyskiwania ewoluuje w kilku kierunkach. Jednym z najbardziej perspektywicznych jest segment rozwiązań dla SaaS. Zmiany mają miejsce również w grupie produktów przeznaczonych do ochrony maszyn wirtualnych, gdzie widoczne są dwa trendy – ciągła replikacja oraz dostosowanie systemów do zróżnicowanych środowisk zwirtualizowanych.

Ten pierwszy wiąże się z rosnącą liczbą maszyn wirtualnych obsługujących aplikacje krytyczne, w których zastosowanie ciągłej replikacji pozwala tworzyć kopie z częstotliwością co kilkanaście sekund. Druga kwestia dotyczy zaspokojenia potrzeb klientów korzystających z mniej popularnych wirtualizatorów. Zdaniem Pawła Mączki wygrają producenci, którzy będą potrafili wyjść ze strefy komfortu i zaoferować kompleksową ofertę wykraczającą poza wsparcie dla VMware’a oraz Hyper-V. Tym bardziej, że firmy coraz częściej sięgają po hiperwizory klasy KVM (Nutanix, OpenStack, RHV, oVirt, OLVM, Proxmox) lub Xen (Citrix, XCP-ng, OVM).

O ile maszyny wirtualne stały się nieodłącznym elementem krajobrazu IT, o tyle kontenery zaczynają się dopiero w nim zadomawiać. Gartner przewiduje, że w 2025 r. aż 85 proc. globalnych korporacji będzie korzystać z aplikacji kontenerowych w środowiskach produkcyjnych. Aplikacje uruchomione w kontenerach często potrzebują przestrzeni dyskowej do przechowywania danych, która nie jest tymczasowa. W tego typu przypadkach potrzebne są narzędzia do ochrony danych.

Niestety, używane do tej pory rozwiązania zupełnie nie nadają się do backupu kontenerów. Dlatego też rozpoczął się wyścig pomiędzy producentami, próbującymi wywalczyć silną pozycję na tym dopiero tworzącym się rynku. Veeam w ubiegłym roku przejął startup Kasten, specjalizujący się w rozwiązaniach backupu i odzyskiwania danych dla kontenerów. Danny Allan, CTO Veeama, przyznał na łamach amerykańskiego CRN-a, że ta część biznesu, jak na razie, nie generuje znaczących przychodów, ale prawdopodobnie stanie się kluczowa dla przyszłości tego producenta.

Warto przy tym wspomnieć, że również Commvault wprowadził produkt do backupu kontenerów, zarówno dla tych znajdujących się w lokalnym centrum danych, jak i w chmurze publicznej. Według Dell EMC duże zainteresowanie ochroną danych w aplikacjach kontenerowych wykazują przede wszystkim firmy z sektora bankowego oraz telekomunikacyjnego.

Trudno też wyobrazić sobie ochronę danych bez dalszego rozwoju usług BaaS(Backup as a Service). Technavio prognozuje, że w latach 2021–2025 średnia roczna stopa wzrostu wyniesie 32 proc. Zdaniem ekspertów popyt na tego typu usługi rosnąć będzie wraz pokonywaniem przeszkód – jak przepustowość łączy czy obawy związane z bezpieczeństwem.