CRN W jak dużym stopniu funkcjonalność rozwiązań do backupu zmieniła się przez ostatnie lata?

Andrzej Niziołek Przyniosły one bardzo duże zmiany w podejściu do backupu w wielu aspektach. Jeszcze kilka lat temu automatyczna wirtualizacja serwera fizycznego czy odzyskanie go w środowisku chmurowym były bardzo trudne. Podobnie odzyskiwanie pojedynczych maili czy tabel z bazy danych bezpośrednio z backupu. Nikt też nawet nie myślał o przywróceniu ciągłości biznesowej w ciągu kilku minut, posiadając jedynie kopie zapasowe. Tymczasem dziś możliwe jest nawet działanie na wirtualnej maszynie, której backup znajduje się po drugiej stronie globu w chmurze publicznej i jej obraz jest przesyłany bezpośrednio do infrastruktury użytkownika. Ta rewolucja w systemach backupu dzieje się cały czas i nic nie zapowiada, aby ten trend miał zwolnić. Niezmiennie pojawiają się nowe techniki przechowywania i przetwarzania danych, a dzięki nim nowe możliwości.

Dzięki popularyzacji usług chmur publicznych klienci zyskali możliwość przechowywania w nich kopii zapasowych, ale też szybko okazało się, że także sami muszą zadbać o backup danych z aplikacji uruchamianych w środowisku chmurowym. Czy chęć posiadania lokalnej kopii danych przechowywanych online – taki „odwrócony backup online” – jest już zauważalnym trendem wśród klientów?

To nie tylko trend, ale w wielu przypadkach absolutna konieczność, wymuszana przepisami prawa lub branżowymi. Instytucje finansowe podlegające pod regulacje KNF muszą zagwarantować dla każdej z usług chmurowych strategię wyjścia w przypadku utraty możliwości jej świadczenia przez dostawcę. Te dane po prostu muszą być w kopii lokalnej. Podobnym regulacjom podlegają także inne branże i przedsiębiorstwa o znaczeniu strategicznym dla gospodarki lub bezpieczeństwa państwa. Dla niektórych klientów komercyjnych jest to także swego rodzaju polisa ubezpieczeniowa, pozwalająca im na natychmiastowy restart działalności biznesowej w przypadku problemów z danymi w chmurze.

Obecnie najpopularniejszym nośnikiem kopii backupowych są dyski. Jaką popularnością cieszą się taśmy i chmura publiczna?

Dyski rzeczywiście są najczęściej wykorzystywane jako nośniki repozytorium kopii backupowych. Niewątpliwie charakteryzują się znacznie większą szybkością dostępu oraz pozwalają przywrócić działalność produkcyjną bez potrzeby odtwarzania danych z kopii. Mają wiele zalet, chociaż oczywiście też wady. Ale dobrze zaprojektowane rozwiązanie taśmowe także daje ogromne korzyści. Taśmy mają ogromną pojemność – wielokrotnie większą niż dyski, pozwalają na łatwe wyniesienie kopii do zewnętrznej lokalizacji, jeśli wymaga tego procedura lub prawo. Chmura natomiast potencjalnie daje wszystkie zalety dysków i taśm w jednym, ale z tym ograniczeniem, że szybkość zapisu i odczytu limitowana jest przepustowością sieci. Rozwiązanie zatem należy dobrać tak, aby spełniało potrzeby biznesowe klienta – wymagane czasy RPO (Recovery Point Objective) i RTO (Recovery Time Objective) oraz uwzględniało ograniczenia prawne i regulacje branżowe. Często kończy się to wykorzystaniem kilku różnych rozwiązań i repozytoriów.

No właśnie, jak obecnie wygląda świadomość klientów, jeśli chodzi o znajomość podstawowych zagadnień, takich jak RPO, RTO czy okna backupowe, umożliwiających zaplanowane skutecznego procesu wykonywania backupu?

Dawniej obserwowaliśmy rozdźwięk pomiędzy zrozumieniem problematyki backupu przez IT i działy biznesowe. Także wcześniej wspomniane pojęcia oczekiwanego punktu i czasu odtworzenia były niejasne. Ale dzisiaj sytuacja wygląda zupełnie inaczej. Zarządy firm znakomicie rozumieją wymagania użytkowników i są w stanie je sformułować w taki sposób, który jest jednoznacznie interpretowany przez IT. Co ważne, nie mówimy tylko o backupie, ale o całym procesie zapewniania ciągłości biznesowej.

Jak zatem w tej dziedzinie na przestrzeni ostatnich lat zmieniały się biznesowe potrzeby przedsiębiorstw?

Przez ostatnich 20 lat IT – z roli niewidocznego działu wsparcia, ukrytego gdzieś głęboko w przedsiębiorstwie – stało się kluczowym zasobem. Praktycznie wszystkie procesy biznesowe i produkcyjne są zinformatyzowane, a ich niedostępność jest natychmiast widoczna dla klientów. Wymagania stawiane nowoczesnym systemom backupu odzwierciedlają wymagania biznesu – możliwie najkrótsze czasy odtworzenia, ale nie danych, tylko środowisk lub wręcz procesów biznesowych, ewentualna utrata danych bliska zeru, gwarancja odtwarzalności danych i ich spójności  widzianej z poziomu aplikacji biznesowej itd. Ogólnie rzecz ujmując, przestaliśmy chronić dane, a zaczęliśmy gwarantować ciągłość biznesu.

Wielu producentów rozwiązań back-upowych chwali się dziś, że potrafi zautomatyzować proces podejmowania decyzji odnośnie do strategii i taktyki przeprowadzania backupu. Czy rzeczywiście jest to możliwe w praktyce? Czy to oznacza, że integratorzy, którzy często wspierali swoich klientów w tej kwestii, mogą poczuć się zagrożeni?

Kiedyś może doczekamy się takich rozwiązań do ochrony danych, które będą w stanie przewidzieć nadchodzące niebezpieczeństwo i zadziałać z wyprzedzeniem, zabezpieczając dane i przełączając przetwarzanie na bezpieczne środowisko. Ale to jeszcze odległa przyszłość. Aktualnie dostępne na rynku narzędzia potrafią zautomatyzować proces ochrony i odtwarzania całych środowisk w przypadku ich uszkodzenia lub niedostępności. Każde takie rozwiązanie wymaga jednak wdrożenia, zdefiniowania odpowiednich reguł i zależności, zbudowania mechanizmów działania i przeprowadzenia wielu innych kroków, aby efekt końcowy dawał wrażenie pełnej automatyzacji. Im większe i bardziej skomplikowane środowisko, tym większe wyzwanie dla automatyzacji a – co za tym idzie – większe oczekiwania wobec integratora.

Najczęściej kopia backupowa zawiera wszystkie lub większość firmowych danych. Tymczasem eksperci ds. bezpieczeństwa przestrzegają, że należy jej pilnować wyjątkowo szczególnie, bo czyhający na dane przestępcy mogą próbować uzyskać dostęp właśnie do kopii, której administratorzy strzegą z reguły mniej niż środowiska produkcyjnego. A jeśli backup jest prowadzony w chmurze, włamanie może okazać się jeszcze prostsze. W jaki sposób najłatwiej zabezpieczyć się przed tego typu wyciekiem?

Repozytoria backupowe awansowały do obszaru zainteresowania cyberprzestępców na równi z danymi produkcyjnymi. Od dawna mówimy o konieczności stosowania się do reguły 3-2-1 – trzy kopie danych, w dwóch lokalizacjach, w tym jedna poza serwerownią przedsiębiorstwa. Dodatkowo kopie backupowe powinny być szyfrowane niezależnie od miejsca ich przechowywania. Poza tym chmura często jest miejscem o wyższym poziomie bezpieczeństwa niż serwerownie lokalne – zwłaszcza te najmniejsze. Nie zmienia to jednak faktu, że najsłabszym ogniwem, od którego zaczyna się większość ataków, jest człowiek – nawet nie administrator, tylko szeregowy pracownik. Dlatego też odpowiednio zbudowana polityka back-upu i przestrzegane procedury operacyjne, hierarchia uprawnień oraz odpowiednie narzędzia monitorowania stanowią gwarancję bezpieczeństwa.

Backup przez długi czas był mocno niedocenianą dziedziną przez administratorów środowisk wirtualnych. Twierdzili, że skoro ochrona maszyn wirtualnych i danych zapewniana jest na kilka innych sposobów, to backup w ogóle nie jest potrzebny. Czy nadal można spotkać się z taką postawą?

W ostatnich latach zarówno środowiska wirtualne, jak i ich backup, stały się praktycznie standardem i już na etapie planowania czy wdrażania infrastruktury wirtualnej backup traktowany jest jako jej integralny element. Tak więc postawa ta nie ma już dzisiaj zastosowania do środowisk wirtualnych, natomiast obserwujemy duży poziom beztroski, jeśli chodzi o zagwarantowanie dostępu do danych przechowywanych w cieszących się rosnącą popularnością chmurowych usługach IaaS i SaaS. Tutaj użytkownikami kieruje wiara, że dostawca chmury, posiadając rozproszone po świecie centra danych, zapewniając georeplikację oraz udostępniając technologie w teorii uniemożliwiające modyfikacje czy usunięcie danych, daje pewność, że dane są bezpieczne. W praktyce jednak nadal zastosowanie powinna mieć reguła 3-2-1 gdzie 1, czyli kopia zdalna, wysyłana jest poza szeroko rozumianą chmurę, na przykład do lokalizacji użytkownika lub innego, niezależnego, dostawcy chmurowego.

Chyba żaden z producentów rozwiązań do budowy środowisk wirtualnych nie dostarcza własnych narzędzi back-upowych ani archiwizacyjnych, ale postawili na strategiczne partnerstwa z firmami trzecimi. Jakie są najważniejsze kryteria przy wyborze właściwego dostawcy?

Przede wszystkim w tym kontekście sam backup powinien być drugorzędnym tematem. Po każdej awarii najważniejsze jest szybkie oraz elastyczne przywrócenie usług zapewniających ciągłość biznesową, czyli powinniśmy przede wszystkim oceniać możliwości odtworzenia danych. Minął już czas, gdy jedynie szybkość wykonywania kopii definiowała przydatność oprogramowania do backupu. W dobie zróżnicowanych środowisk, w których spotykamy maszyny fizyczne, środowiska zwirtualizowane i chmurowe, możliwość migracji danych między nimi może okazać się nieoceniona. Nowoczesne oprogramowanie backupowe nie może zatem ograniczać administratorów w czasie awarii. Jeśli środowisko fizyczne ulega awarii, to możliwość odzyskania tych danych na działającym środowisku wirtualnym czy chmurowym pozwala skupić się na odtwarzaniu danych, a nie poszukiwaniu sprawnego sprzętu. Oczywiście jest to jeden z aspektów, których oczekujemy od oprogramowania w obecnych czasach, inne traktujemy już niemal jak standard. Są wśród nich niezależność od dostawcy sprzętu, automatyczna weryfikacja możliwości odzyskania danych z kopii zapasowych czy połączenie możliwości archiwizacyjnych, jak i disaster recovery, w jeden produkt.

Dlaczego w przypadku środowisk wirtualnych nie ma sensu korzystanie z narzędzi backupowych stworzonych dla tradycyjnych środowisk, instalujących agenta w każdej maszynie wirtualnej?

Środowiska wirtualne zostały stworzone poniekąd jako ewolucja, jako usprawnienie serwerów fizycznych. Wirtualizacja dała prostotę wdrażania nowych maszyn, ich rekonfiguracji, usuwania, przenoszenia między środowiskami, wysoką dostępność, odporność na problemy sprzętowe, jak i oczywiście długofalowe oszczędności poprzez lepsze wykorzystanie zasobów. Dlatego stosując podejście do ochrony znane z tradycyjnych środowisk zaprzeczamy idei wirtualizacji. Backup musi rozumieć wirtualizację – dzięki pełnej integracji z interfejsem API wirtualizatora, wiemy kiedy i dlaczego maszyna zostaje przeniesiona między środowiskami, potrafimy również zidentyfikować potencjalne problemy konfiguracyjne wpływające na wydajność kopii zapasowych. Backup musi być również przystosowany do nowoczesnych środowisk – tradycyjny agent plikowy czy bazodanowy nie pozwoli na proste przeniesienie maszyny między różnymi wirtualizatorami, nie pozwoli na odzyskanie maszyny w chmurze oraz na przywrócenie usług po awarii w ciągu zaledwie kilku minut.

Jedną z głównych korzyści wskazywanych w kontekście chmury jest łatwe skalowanie zbudowanego w niej wirtualnego środowiska. Tymczasem częste zmiany jego wielkości sprawiają niemałe problemy przy projektowaniu procesu backupu. Jakimi najlepszymi praktykami w tym kontekście możecie się podzielić?

Chmura jest zdecydowanie środowiskiem jeszcze bardziej dynamicznym i nieprzewidywalnym, niż to, do czego przyzwyczaiła nas wirtualizacja. I – podobnie jak przy przejściu między środowiskami fizycznymi, a wirtualizacją – także tutaj oprogramowanie backupowe musi być dostosowane do realiów chmury. Rozwiązania tworzone z myślą o chmurze pozwalają zdefiniować pewne założenia, do których infrastruktura będzie się automatycznie dostosowywała. Dla przykładu, jeśli obecne wykorzystanie chmury nie wymaga rozbudowy komponentów backupowych, automatycznie zostanie wykorzystane minimum zasobów, aby zmniejszyć poziom złożoności rozwiązania oraz jego koszty. Wraz ze wzrostem wykorzystania chmury system backupu automatycznie, w ramach zdefiniowanych parametrów, doda kolejne komponenty, aby zachować wydajność kopii zapasowych i nie naruszać ustalonego okna backupowego. W celu lepszego zrozumienia kosztów związanych z backupem w chmurze w ramach każdego zadania wskazujemy przybliżony koszt związany ze zużyciem zasobów przez infrastrukturę backupu, jak i koszt związany z przechowywaniem danych w repozytoriach obiektowych. Mając tego typu narzędzia mamy wiedzę o spodziewanych kosztach, jak również pewność, że sam system backupu dba o utrzymywanie infrastruktury w ramach niezbędnego minimum.

Czy firmy integratorskie, które wyspecjalizowały się w projektowaniu założeń procesu backupu dla klasycznych środowisk, bez problemu poradzą sobie także przy zabezpieczaniu maszyn wirtualnych i kontenerów?

Wiele krytycznych elementów związanych z projektowaniem środowiska back-upu jest identycznych, niezależnie czy mówimy o środowiskach tradycyjnych, zwirtualizowanych czy chmurowych. Dobrze zaprojektowany backup to przede wszystkim analiza wymogów klienta, zapewnienie nadmiarowości systemów, unikanie pojedynczych punktów awarii, ustalenie spójnej polityki retencji oraz jasne procedury przywracania danych po awarii. Oczywiście nie możemy lekceważyć umiejętności stworzenia infrastruktury backupu dostosowanego do nowoczesnych środowisk wirtualnych, ale jednocześnie pamiętajmy, że sama polityka backupu jest uniwersalna i to ona definiuje niezawodność systemu. Nowości techniczne mogą pomóc, ale nie zastąpią podstawowych dobrych praktyk.

Z jakimi wyzwaniami w tym kontekście najczęściej mierzą się integratorzy?

Największym wyzwaniem obecnie jest zróżnicowanie środowisk i potrzeba stworzenia systemu nie tylko odpowiedniego na dzień wdrożenia, ale gotowego na rozwój infrastruktury na przestrzeni trzech czy pięciu lat. Odchodzi się od stosowania „złotego standardu” w przypadku środowisk IT i widzimy trend, aby w ramach nowych projektów czy rozbudowy infrastruktury pozyskiwać najlepsze dostępne rozwiązania w danej chwili, a niekoniecznie na siłę dostosowywać się, w imię standaryzacji, do sprzętu czy oprogramowania zakupionego kilka lat wcześniej. System backupu musi być do takich scenariuszy przygotowany. Polityka backupu musi zakładać pojawienie się nieznanych wcześniej rozwiązań. Co więcej, integratorzy muszą być niemal natychmiast gotowi wspierać swoich klientów w obszarze najlepszych praktyk wdrożenia, backupu i odzyskiwania tego typu nowości.

Podczas prób sprzedaży rozwiązań backupowych przez klientów czasem podnoszony jest argument o braku zwrotu z inwestycji. Jaką taktykę zatem integratorzy powinni przyjąć, aby doprowadzić do finalizacji kontraktu?

Ostatnio coraz rzadziej spotykam się z takim argumentem. System backupu jest jak polisa ubezpieczeniowa. W zasadzie najchętniej byśmy z niej nie korzystali, niemniej jednak czasem – nawet nie z naszej winy – zmuszeni jesteśmy jakąś szkodę likwidować i wówczas taka polisa okazuje się zbawienna. Koszt rozwiązania powinien być przeciwstawiany potencjalnym stratom powodowanym przez przestoje: utracie zaufania klientów, reputacji, przychodów… IT stało się krytyczną częścią biznesu większości firm i ma bezpośredni wpływ na ich codzienne działanie oraz wyniki. Czasem pomaga też „dobry przykład” wielkich tego świata, którzy padli ofiarą hakerów i nie mając odpowiednio zabezpieczonych danych musieli ponieść ogromne koszty ich odzyskania.

Rozmawiał Krzysztof Jakubik

Andrzej Niziołek Andrzej Niziołek  

Zarządza sprzedażą w regionie NSEE w firmie Veeam Software od połowy 2017 roku. Ma 20-letnie doświadczenie w branży IT, zarówno w obszarze technicznym jak i sprzedażowym. Swoją karierę rozpoczął w IBM, gdzie zajmował się klientami z sektora telekomunikacji. Następnie dołączył do EMC jako Enterprise Sales Manager odpowiedzialny za Polskę, po czym awansował na stanowisko Cloud Business Development Managera w regionie wschodniego EMEA. Pełnił także funkcję dyrektora polskiego oddziału w firmie Commvault oraz odpowiadał w Microsoft za rozwój biznesu wokół usług chmury Azure.