Koncepcja tworzenia kopii zapasowych istnieje niemal tak długo, jak komputery. Praktycznie każdy liczący się dostawca rozwiązań do ochrony danych wchodził na rynek, aby sprostać specyficznym potrzebom użytkowników. I tak, Veritas zaistniał dzięki wprowadzeniu produktów dla środowiska Unix, podczas gdy Commvault utożsamiany jest z Windowsem, a Veeam z VMware’em. W obecnych czasach jednak na znaczeniu zyskują kompleksowe rozwiązania chroniące dane rozproszone w wielu różnych środowiskach.

– Zauważamy wśród klientów zapotrzebowanie na heterogeniczne narzędzia do backupu i przywracania środowisk do pracy po awarii. Trudno się temu dziwić. W tej chwili na globalnym rynku działa ok. 23 tysięcy dostawców aplikacji SaaS – zauważa Simon Taylor, prezes HYCU.

Trudno sobie wyobrazić chaos, nie wspominając już o kosztach, jaki powstałby, gdyby jakaś firma musiała wdrożyć osobne rozwiązanie do backupu dla każdej wykorzystywanej usługi SaaS. Zwłaszcza, że według opublikowanego przez BetterCloud raportu „State of SaaSOps 2023”, przeciętne przedsiębiorstwo na świecie korzystało w ubiegłym roku średnio ze 130 aplikacji chmurowych.

– Firmy przenoszą wiele operacji do chmur, co wpływa na rosnące zapotrzebowanie na elastyczne i skalowalne rozwiązania do tworzenia kopii zapasowych. Ponadto, rozwinięcie technologii sztucznej inteligencji i analizy danych znacząco wpłynęło na efektywność procesów backupu oraz identyfikowanie potencjalnych zagrożeń – mówi Paweł Mączka, CTO i wiceprezes Storware’u.

Co istotne, świadomość usługobiorców na temat zabezpieczania danych przetwarzanych przez aplikacje chmurowe cały czas rośnie. W dużym stopniu przyczyniły się do tego cybergangi i… dostawcy usług chmurowych. Te pierwsze z coraz większą ochotą atakują środowiska SaaS (aż 55 proc. firm przyznało, że w ciągu ostatnich dwóch lat doświadczyło incydentu związanego z SaaS, jak wynika z „Annual SaaS Security Survey Report: 2024 Plans & Priorities, Adaptive Shields”), zaś usługodawcy zmagali się w ubiegłym roku z kilkoma awariami (Microsoft 365, Datadog, Google Cloud Identity and Access Management, Salesforce Slack). Nic dziwnego, że część specjalistów dmucha na zimne i rozgląda się za różnymi formami redundancji, które umożliwiają korzystanie z kopii zapasowych nawet w przypadku wystąpienia mniejszych lub większych usterek po stronie dostawcy usług backupu online.

Bez dywersyfikacji ani rusz

Najbardziej popularną i już nie najmłodszą strategią planowania backupu jest tzw. 3-2-1. Użytkownik przechowuje trzy kopie danych na dwóch różnych nośnikach pamięci, przy czym jedna z nich powinna znajdować się poza główną lokalizacją firmy. Dywersyfikacja eliminuje pojedynczy punkt awarii i dodaje nową warstwę bezpieczeństwa. Już od dawna stosują ją chociażby instytucje finansowe. Część firm idących z duchem czasu zdążyło się przestawić na metodę 3-2-1-1-0. Jak łatwo zauważyć pojawiają się tutaj dwie kolejne liczby „1” oraz „0”, gdzie pierwsza oznacza przechowywanie jednej kopii w trybie offline (nie jest połączona z infrastrukturą teleinformatyczną), zaś druga codzienny monitoring kopii zapasowych i przeprowadzanie regularnych testów, co przekłada się na „zero niedostępności”. Wprawdzie dostawcy usług chmurowych podpisują z klientami umowy SLA określające poziom dostępności, trwałości oraz integralności danych, to jednak mają one pewne ograniczenia. Takie strategie jak 3-2-1-1-0 czy 3-2-1 pozwalają użytkownikowi uniezależnić się od usługodawcy.

Przechowywanie danych zarówno w środowisku chmurowym, jak i lokalnym, ma swoje mocne i słabe strony, a stawka jest zbyt wysoka, aby zdecydowanie postawić wyłącznie na jedną z opcji. Na przykład odzyskiwanie dużej ilości danych z chmury publicznej może być na tyle uciążliwym procesem, że nie uda się osiągnąć zamierzonego wskaźnika RTO (Recovery Time Objective), który definiuje czas, w jakim system ma powrócić do stanu przed awarii. Natomiast mała firma, korzystająca z zasobów cyfrowych o pojemności kilkunastu terabajtów, może być zadowolona z backupu online ze względu na niższe koszty (brak inwestycji w sprzęt i oprogramowanie) oraz skalowalność. Nie martwi się o też aktualizacje bezpieczeństwa, migracje danych czy starzenie się usług, ponieważ wszystko spoczywa na barkach dostawców.

Generalnie, w przypadku niewielkiej ilości danych łatwiej uzyskać zakładane RTO. Odzyskiwanie w chmurze jest też szybsze i łatwiejsze niż w przypadku kopii zapasowych przechowywanych w bibliotekach taśmowych.

– Usługi typu Backup as a Service będą stanowiły coraz większą część rynku rozwiązań do zabezpieczania danych. Użytkownicy często decydują się na przejście do chmury, ponieważ nie chcą utrzymywać żadnej infrastruktury we własnym zakresie, co dotyczy również infrastruktury do backupu – wyjaśnia Tomasz Krajewski, Senior Technical Sales Director w Veeamie.

Drugim bardzo istotnym wskaźnikiem opisującym skuteczność backupu jest RPO (Recovery Point Objective), definiujący moment oraz częstotliwość z jaką wykonywane są kopie zapasowe. Tutaj wiele zależy od oczekiwań użytkownika: jeśli są one wysokie (jak najmniejsza utrata danych), wymagają większej liczby kopii zapasowych, przestrzeni dyskowej oraz wysokiej wydajności komputerów i przepustowości sieci. Za to wszystko trzeba słono zapłacić, niezależnie do tego czy firma korzysta z backupu tradycyjnego czy online. Dlatego przed wyborem jednej z opcji przydałaby się dokładna analiza finansowa.