Gartner przewiduje, że do 2022 r. aż 40 proc. przedsiębiorstw uzupełni lub całkowicie wymieni oprogramowanie do tworzenia kopii zapasowych, które zakupiły dwa lata temu, bądź wcześniej. Wraz z wybuchem pandemii większość firm nie była przygotowana na masową migrację personelu z biur do mieszkań. Związane z tym zamieszanie wykorzystywali hakerzy sięgnęli po różne metody, w tym kampanie phishingowe, ataki DDoS, botnety czy wyjątkowo bolesny dla przedsiębiorców ransomware. Według firmy Bitdefender, w pierwszym półroczu br. liczba ataków realizowanych za pośrednictwem tego właśnie złośliwego oprogramowania wzrosła o ponad 700 proc. w ujęciu rocznym.

Eksperci zwracają przy tym uwagę na niepokojący trend, jakim jest sprzedaż na czarnym rynku prostych zestawów do ataków ransomware, których mogą użyć nawet początkujący hakerzy. Jak łatwo się domyślić ich celem nie są wielkie koncerny, lecz małe firmy oraz użytkownicy domowi. Nie bez przyczyny specjaliści od bezpieczeństwa twierdzą, że jednym z największych wyzwań dla działów IT będzie zapewnienie sobie maksymalnych szans na odzyskanie danych z backupu.

Integracja narzędzi

Pandemia sprawia, że wiele osób pracuje w domach i nic nie wskazuje na to, że szybko powrócą do biur. Działy IT muszą więc skorygować plany ochrony danych, w tym procesy związane z tworzeniem kopii zapasowych przez zdalnych pracowników.

– W nowej rzeczywistości coraz więcej zasobów znajduje się nie tylko w firmowej serwerowni, ale też w chmurze. Dla systemów backupu oznacza to trzy rzeczy: konieczność przesyłania od użytkowników tylko nowych danych, centralizacji zarządzania oraz automatyzacji – tłumaczy Daniel Olkowski, Solution Advisor w Dell EMC.

Ciągła ochrona danych zdalnych pracowników może być kłopotliwa ze względu na ograniczenia w przepustowości łączy oraz tworzenie kopii zapasowych nie tylko firmowych, ale również prywatnych plików.

– W obecnych warunkach proste środki do ochrony danych nie zawsze się sprawdzają. Wynika to z rozproszenia procesów wytwarzania i przetwarzania danych. W wielu wypadkach tylko bardziej zaawansowane rozwiązania umożliwiają zabezpieczanie urządzeń końcowych zdalnych pracowników. Jedną z metod jest wirtualizacja desktopów, gdyż wówczas wszystkie dane pozostają cały czas w centrum danych – zauważa Sławomir Marcisz, architekt IT w Netology.

Producenci od pewnego czasu poszukują też innych rozwiązań, które pozwalają skutecznie zabezpieczać cyfrowe zasoby. Jednym z nich jest integracja produktów do cyberochrony oraz tworzenia kopii zapasowych. Przykładowo, Acronis znany z oprogramowania do backupu już półtora roku temu oznajmił, że połączy je z narzędziami do zabezpieczenia przed zewnętrznymi zagrożeniami i złośliwym kodem.

Jednak na rynku można też zaobserwować ruchy w drugą stronę: dostawcy antywirusów wprowadzają do swojej oferty rozwiązania do backupu. Przykładowo użytkownicy produktów G Daty oraz Symanteca mogą korzystać z funkcji wykonujących automatyczne kopie danych w chmurze. Innym stosunkowo nowym zjawiskiem jest wdrażanie systemów do backupu na brzegu sieci, które szczególnie sprawdzają się w oddziałach firm. Tego typu rozwiązania oferują, między innymi: Veritas, Unitrends czy Arcserve.

Coraz więcej danych krytycznych

Pracownicy działów IT skarżą się, że jest im coraz trudniej sprostać oczekiwaniom koleżanek i kolegów z innych departamentów. Problemem staje się nie tylko deficyt informatyków, ale także wysokie wymagania stawiane przez menedżerów, którzy chcą, żeby systemy IT działały przez 24 godzinę na dobę. Trudno się temu dziwić, bowiem nieplanowane przestoje niosą ze sobą poważne konsekwencje, począwszy od wymiernych strat finansowych, aż po utratę wizerunku, co może być szczególnie dotkliwe w przypadku instytucji finansowych czy firm e-commerce. Według najnowszego raportu „Data Protection Trends” opracowanego przez Veeama, aż 95 proc. firm doświadczyło nieplanowanego przestoju, przy czym tolerowana przez biznes przerwa wynikająca z tego tytułu nie może być dłuższa niż dwie godziny. Z badania wynika, że godzina przestoju aplikacji o wysokim priorytecie kosztuje 67,6 tys. dol., zaś w przypadku normalnego priorytetu jest to niewiele mniej, bo 61,6 tys. dol.

Wprawdzie firmy przenoszą wiele aplikacji i danych do chmury publicznej, ale te najbardziej istotne zazwyczaj pozostają na lokalnych urządzeniach. Obecnie większość centrów danych jest zwirtualizowanych, ale w niektórych przypadkach aplikacje o znaczeniu krytycznym lub starsze środowiska są uruchamiane na fizycznych serwerach. Charakter tego oprogramowania sprawia, że pliki systemu operacyjnego, same aplikacje, jak i dane muszą być objęte należytą ochroną. Rozwiązania do back-upu i disaster recovery najważniejszych dostawców zabezpieczają całą platformę i mają zdolność do odtworzenia środowiska systemowego po rozległej awarii sprzętowej serwera. Analitycy Gartnera zwracają uwagę, że tego typu narzędzia powinny zapewnić obsługę serwerów pracujących pod kontrolą Windows, najważniejszych dystrybucji Linuxa (w tym Red Hat oraz SUSE), HP-UX, Oracle Solaris czy IBM AIX.

Źródło: Gartner

Ponadto dostawcy rozwiązań do ochrony danych starają się umożliwić jak najwięcej opcji odzyskiwania, w tym P2P (Physical to Physical) czy P2V (Physical to Virtual). W tym drugim przypadku użytkownik nie musi instalować nowego sprzętu. Wystarczy utworzyć maszynę wirtualną na serwerze głównym i odzyskać system operacyjny, aplikacje i dane z serwera fizycznego na maszynę wirtualną. Tym, co powinno cieszyć – zarówno klientów, jak i integratorów – jest pojawienie się wśród dostawców kilku nowych graczy. Gartner w analizie poświęconej rozwiązaniom do tworzenia kopii zapasowych i odtwarzania danych dość wysoko ocenia produkty takich firm jak Rubrik, Actifio czy Cohesity.

Zdaniem specjalisty 

Mikołaj Wiśniak, Manager Systems Engineering, Eastern Europe, VMware Mikołaj Wiśniak, Manager Systems Engineering, Eastern Europe, VMware  

Wirtualna infrastruktura umożliwia ochronę środowiska m.in. za pomocą klastrów wysokiej dostępności (High Availability) czy metropolitarnych (Metro Stretched Cluster). Pozwalają one połączyć dwa ośrodki przetwarzania danych w różnych lokalizacjach geograficznych, zapewniając odporność na awarię całego środowiska, bez utraty danych i krótki brak dostępności usług. Warto jednak podkreślić coraz ważniejszą rolę, jaką w procesach DR odgrywa chmura publiczna. Można realizować w niej np. tryb active/standby czy active-active, chociaż w przypadku usług niektórych dostawców istnieją pewne ograniczenia dla polskich klientów związane z odległością do najbliższego centrum danych. Niezależnie od wybranej konfiguracji, DRaaS staje się realną, tańszą alternatywą dla klasycznego modelu budowy dwóch oddzielnych serwerowni.

  
Paweł Mączka, CTO, Storware Paweł Mączka, CTO, Storware  

W ostatnim czasie wielu klientów kieruje do nas pytania dotyczącego kompleksowej ochrony danych. Najczęściej zwracają uwagę na takie aspekty, jak: ustawienia polityki backupu, możliwości w zakresie deduplikacji i kompresji oraz mechanizmy zmniejszające ryzyko ataku ransomware. Firmy podczas zakupu uwzględniają obecne potrzeby, takie jak ochrona maszyn wirtualnych oraz fizycznych, a nie zwracają uwagi na aspekty związane z rozwojem rynku informatycznego. Myślę tutaj przede wszystkim o rozwiązaniach open source, kontenerach czy środowisku chmurowym. Wsparcie ze strony dostawców usług chmurowych jest szczególnie ważne w przypadku procesów disaster recovery.

  
Łukasz Milic, Business Development Representative, QNAP Łukasz Milic, Business Development Representative, QNAP  

Polscy klienci lubią chmurę i boją się chmury. Wiele firm docenia możliwości i wygodę, więc przenosi do niej swoje zasoby i korzysta z oprogramowania typu Office 365, a jednocześnie obawiają się o prywatność tych danych. Często jednak zapominają, że to nie tylko kwestia prywatności, ale faktycznego bezpieczeństwa przechowywania danych w chmurze. O ile wielu dostawców chmury oferuje możliwość przywracania usuniętych danych przez pewien czas, to jednak nie mamy stuprocentowej gwarancji, że zawsze będą one dostępne. Przykładem są niedawne problemy różnych dostawców chmury, którzy omyłkowo skasowali dane klientów, padli ofiarą ransomware lub mieli inne awarie. Dlatego korzystając z tego modelu przechowywania danych warto mieć na uwadze bezpieczeństwo i zadbać o ich backup.

  
Przemysław Biel, Senior Key Account Manager Poland, Synology Przemysław Biel, Senior Key Account Manager Poland, Synology  

Podstawowym kryterium przy wyborze narzędzia do backupu cały czas są koszty. Każda poważna firma powinna jednak zastanowić się, czy jej dane są wystarczająco bezpieczne. W jaki sposób poradzi sobie w przypadku awarii, pożaru lub innej sytuacji kryzysowej? Wśród wielu użytkowników panuje przekonanie, że jeśli mam kopię zapasową, to jestem bezpieczny. Ale tak naprawdę, jedna kopia to żadna kopia. Firmy powinny mieć opracowany plan zabezpieczenia danych, zarówno na poziomie kopii zapasowych zgodnie z zasadą 3-2-1, jak i przewidzieć dodatkowe mechanizmy, w tym kopie migawkowe, które pozwalają na szybkie odzyskanie danych w przypadku ataku ransomware.

  

SaaS i nowe silosy

Oprogramowanie oferowane w modelu SaaS już od kilku lat pozostaje największym segmentem rynku usług chmurowych. Gartner prognozuje, że w tym roku przychody ze sprzedaży wyniosą w tym przypadku 104,7 mld dol. Jak widać, przedsiębiorcy bardzo chętnie korzystają z aplikacji w chmurze i doceniają elastyczność takiego rozwiązania. Niestety, większość firm wychodzi z niesłusznego założenia, że usługodawca w ramach miesięcznego abonamentu zaopiekuje się ich danymi. Według badania przeprowadzonego przez Salesforce’a, aż 88 proc. użytkowników SaaS nie stworzyło kompleksowej strategii tworzenia kopii zapasowych i odzyskiwania danych.

– Odpowiedzialność usługodawcy SaaS w zakresie ochrony danych jest ograniczona do niezbędnego minimum. Jedna z niepisanych reguł dotyczących Salesforce’a mówi, żeby samemu tworzyć kopie zapasowe własnych danych. Warto też zauważyć, że według tego usługodawcy co trzeci ich klient utracił dane – mówi Ori Yankelev, założyciel OwnBackup.

Wprawdzie Salesforce nie odmawia pomocy usługobiorcom w trudnych chwilach, ale warunki oferowane przez firmę Marca Benioffa nie zachęcają do współpracy. Najbardziej obrazowy jest przykład dotyczący opłaty za odzyskanie danych. Użytkownik musi zapłacić za usługę 10 tys. dol., zaś czas realizacji wynosi od 6 do 8 tygodni. Strategia Salesforce’a nie jest wyjątkowa, również inni dostawcy usług chmurowych stosują bardzo podobne metody.

W rezultacie firmy mają do wyboru dwie opcje: opracować rozwiązania do backupu we własnym zakresie, co jest niewykonalne dla lwiej części przedsiębiorców, bądź skorzystać z oferty firm zewnętrznych. W ostatnich latach część producentów wyspecjalizowała się w rozwiązaniach „szytych” pod Sales-force’a (m.in. OwnBackup, Druva czy CopyStorm), jak i Office’a 365 (Comm-vault, Barracuda, Storware czy Veeam). Do rywalizacji włączają się też dostawcy sprzętu. Przykładowo QNAP i Synology oferują oprogramowanie do backupu danych z Office’a 365 oraz G Suite, choć w tym przypadku trzeba zainwestować w serwer NAS i nośniki.

Przeprowadzka do chmury

Analitycy szacują, że około 90 proc. firm korzysta z wirtualnych serwerów, na których bardzo często instalowane są aplikacje krytyczne. Wraz z przenoszeniem kolejnych programów do zwirtualizowanych środowisk, rosną wymagania w zakresie ich ochrony, a także szybkiego przywracania do pracy po awarii.

– Procedury ochrony maszyn wirtualnych powinny spełniać trzy warunki: ich kopie należy wykonywać z dużą częstotliwością, w neutralny dla środowisk produkcyjnych i automatycznie dostosowujący się do zmian sposób. Jeśli powyższe wymogi są zachowane, odtworzy się każdą maszynę, a administrator zamiast wykonywać manualne czynności, skupi się na kwestiach związanych z zapewnieniem SLA – tłumaczy Daniel Olkowski.

W ostatnim czasie jednym z ważniejszych tematów poruszanych przez dostawców systemów do backupu wirtualnych maszyn jest ciągła ochrona danych, znana też jako CDP (Continuous Data Protection). Dzięki tej funkcji istnieje możliwość tworzenia kopii wirtualnych maszyn co kilkanaście sekund. To odpowiedź producentów na postulaty klientów żądających wykonywania backupu z jak największą częstotliwością.

– CDP pozwala znacznie poprawić wskaźnik RPO. Jest to natomiast opcja przeznaczona dla krytycznych maszyn wirtualnych, bo przecież nie wszystkie muszą być replikowane co 15 sekund. W większości przypadków wystarczy backup wykonywany raz dziennie – wyjaśnia Tomasz Krajewski, Technical Sales Director, Eastern EMEA w Veeamie.

Nie mniej ważną kwestią jest możliwość przenoszenia maszyn wirtualnych pomiędzy środowiskami lokalnymi a chmurą. Niektóre firmy nie chcą budować zapasowych centrów danych, aby zagwarantować sobie stuprocentową dostępność oraz odporność na awarie, więc decydują się na ofertę dostawców usług chmurowych. Jest to jedna z przyczyn, z powodu której Commvault, Dell EMC czy Veeam zwiększają możliwości swoich systemów w zakresie współpracy z Amazonem, Microsoftem czy Google’em.

Wkrótce wyzwaniem będzie backup wolumenów podłączonych do kontenerów. Część producentów wykonało już pierwsze kroki, aby przygotować się do realizacji nowego zadania. VMware rozpoczął współpracę z Velero – startupem oferującym narzędzie do backupu klastra Kubernetes i trwałych wolumenów. W podobnym kierunku zmierzają konkurenci, m.in. NetApp, który przedstawił na początku roku nową platformę do przechowywania danych w środowiskach Kubernetes. Commvault z kolei w lipcu wprowadził kompleksową obsługę Kubernetes do swojego środowiska pamięci masowych definiowanych programowo (Hedvig), Pure Storage dwa miesiące później poinformował o przejęciu Portworx – twórcy oprogramowania do obsługi danych dla kontenerów. Veeam natomiast w październiku pozyskał za 150 mln dolarów firmę Kasten, która się specjalizuje w rozwiązaniach backupu i DR dla Kubernetes.

Zdaniem integratora  

Andrzej Fitt, Business Development Manager, Vayana  

Pierwsze półrocze bieżącego roku minęło pod znakiem sprzedaży podstawowych narzędzi do pracy zdalnej: laptopów i bezpiecznych rozwiązań do komunikacji. Zainteresowanie backupem pojawiło się dopiero w drugim półroczu. Co ciekawe, dla mniejszych przedsiębiorstw, które często musiały wysupłać na narzędzia do backupu ostatnie grosze, współczynniki RTO i RPO nie miały żadnego znaczenia. Ta grupa klientów stawiała na szybkość i komfort wdrożenia oraz łatwość zarządzania. Inaczej wyglądała sytuacja w przypadku koncernów, dysponujących dużymi budżetami na ochronę danych. Dla nich wymienione współczynniki są istotne, głównie ze względu na zapewnienie sobie spokoju.