Dane zawsze pod ręką
Zmiany zachodzące w świecie nowych technologii to woda na młyn dostawców rozwiązań do ochrony danych. To także duże pole do popisu dla integratorów zainteresowanych realizacją zaawansowanych projektów.
Według IDC do 2025 r. mieszkańcy naszego globu wygenerują 160 ZB danych, czyli 10 razy więcej niż obecnie. Aż 90 proc. z nich wymagać będzie ochrony, co stanowi niezbyt dobrą informację dla działów IT. Jak trudnym zadaniem jest skuteczne zabezpieczenie danych przekonali się już najwięksi giganci: IBM, Apple, GitLab, czy AWS. CNN ochrzciło 2017 „rokiem, w którym wydawało się, że nic nie jest bezpieczne”. Opisało przy okazji, jak firmy i instytucje sektora publicznego dawały się ogrywać hakerom.
Warto jednak zauważyć, że bieżący rok przyniósł poprawę sytuacji, choć trudno popadać w hurraoptymizm. Według Risk Based Security od stycznia do końca czerwca na świecie odnotowano 2308 wycieków informacji, w wyniku których wyparowało 2,6 mld rekordów. Bardzo dużo, ale jednak o 3,4 mld mniej niż w pierwszym półroczu 2017 r. Czyżby firmy zaczynały doceniać wartość informacji? Krzysztof Rybiński, wykładowca akademicki i Chief Ideator w Synerise, przyznaje, że dzisiaj dostęp do danych jest tak samo ważny dla sukcesu firm jak finansowanie. Nie bez przyczyny coraz częściej w branży nowych technologii dyskutuje się o systemach wysokiej dostępności (high availability).
Najbardziej precyzyjni w określaniu dostępności danych są providerzy data center. Przykładowo współczynnik niezawodności 99,999 proc. oznacza, że system może mieć 5-minutową przerwę w ciągu całego roku. Natomiast w materiałach reklamowych pojęcie wysokiej dostępności jest nadużywane. Dlatego zawsze warto sprawdzić w specyfikacji technicznej, jak producent je definiuje.
Szum marketingowy sprawia, że część klientów bezgranicznie ufa systemom wysokiej dostępności. Zastosowanie tej klasy produktów ogranicza do minimum ryzyko wystąpienia przestojów związanych z awarią sprzętu, oprogramowania lub spowodowanych błędami ludzkimi. Nie zdają jednak egzaminu w przypadkach, kiedy trzeba zmierzyć się z żywiołami natury. Niestety, szefowie przedsiębiorstw wychodzą z założenia, że skoro wydali mnóstwo pieniędzy na system, nie muszą poświęcać czasu i środków na opracowanie planu odzyskiwania danych po awarii. Tymczasem posiadając system wysokiej dostępności, nadal można stracić dane klienta.
Analitycy Storage Switzerland szacują, że 30–40 proc. firmowych danych jest przechowywanych na urządzeniach końcowych. Nie są w żaden sposób archiwizowane ani kontrolowane przez działy IT. W najbliższych latach specjaliści od ochrony danych muszą obniżyć ten niechlubny wskaźnik. Niestety, wielu przedsiębiorców wciąż przekłada na później zarówno opracowanie nowej strategii ochrony danych, jak i zakup związanych z tym innowacyjnych rozwiązań. Jednak o ile klienci nie są należycie przygotowani na radykalne zmiany, o tyle producenci starają się iść z duchem czasu.
– Dostawcy rozwiązań do backupu muszą zapewnić kontrolę nad danymi rozproszonymi w różnych systemach i środowiskach. Niemal każde nowe rozwiązanie do backupu umożliwia zastosowanie konsoli bądź media agenta w środowisku wirtualnym lub chmurze. Największą trudnością jest zaś zachowanie kompatybilności nowych produktów z archaicznymi wersjami systemów – ocenia Krzysztof Szablowski, S4Engineers Team Leader.
Działy IT muszą dbać nie tylko o ochronę danych znajdujących się na fizycznych czy wirtualnych maszynach w firmowej serwerowni, ale również informacji przechowywanych na dysku laptopa i dokumentacji fotograficznej w pamięci smartfona. W strategii ich bezpieczeństwa należy przywiązywać dużą wagę do stacji roboczych oraz notebooków, bowiem znajdują się na nich pliki ważne dla prowadzenia biznesu i spełniania wymogów RODO. Problem polega na tym, że przenośne urządzenia nie zawsze są podłączone do korporacyjnej sieci, a tym samym wymykają się kontroli działów IT. Bardzo często osoby pracujące zdalnie zyskują zbyt dużą swobodę w zakresie doboru aplikacji, co niekorzystnie wpływa na bezpieczeństwo firmowych danych.
Tymczasem zmasowane ataki skierowane przeciwko użytkownikom komputerów nabierają na sile. Cyberprzestępcy w ubiegłym roku wytoczyli ciężkie działa w postaci ransomware’u. Petya i WannaCry siały prawdziwe spustoszenie w sieci. Przy czym zagrożenie nie mija: Cybersecurity Ventures prognozuje, że firmy i instytucje zapłacą w 2018 r. okupy o łącznej wartości 8 mld dol. Co ciekawe, część ataków ransomware zaczyna się od wyszukania i zaszyfrowania kopii zapasowych. Dostawcy oprogramowania do backupu stacji roboczych i notebooków nie składają broni, cały czas wzbogacając funkcje produktów.
– Zmiany podążają w kierunku lepszej ochrony przed atakami hakerów. Jednym ze sposobów jest bezpieczna wymiana plików między pracownikami, bez wykorzystywania zewnętrznych serwisów. Nie mniej ważne jest zapewnienie sprawnego przeszukiwania zgromadzonych danych i określenia ich zgodności z przepisami RODO. W systemach ochrony danych pojawiają się też zaawansowana analityka i funkcje zbliżone do Data Loss Protection – mówi Przemysław Mazurkiewicz, EMEA East System Engineering Director w firmie Commvault.
Zdaniem integratora
Tomasz Spyra, prezes Rafcom
Systemy backupu ewoluują w kierunku rozwiązań sprzętowych. O nie też najczęściej pytają klienci. Najbardziej istotne zmiany, jakie pojawiły się w tej grupie produktów, obejmują mechanizmy backupu zmienionych bloków dyskowych połączone z całościową deduplikacją. Znacząco skracają czas tworzenia kopii zapasowych oraz zapewniają ochronę zasobów znajdujących się poza siedzibą firmy.
Sławomir Marcisz, architekt IT, Netology
Rozwiązania do backupu rozwijają się w kierunku coraz szerszego wsparcia procesu zarządzania danymi przez ich zabezpieczenie od chwili powstania przez archiwizację nieużywanych zasobów aż po usuwanie zbędnych plików. W przypadku stacji roboczych dostępne są narzędzia zabezpieczające przed nieuprawnionym dostępem w przypadku zagubienia sprzętu, np. funkcje szyfrowania czy zdalnego usuwania danych.
Chmura ratuje dane
Producenci starają się zapewnić skuteczną ochronę zasobów znajdujących się w różnych środowiskach: fizycznych, wirtualnych i chmurowych. W ostatnim czasie rosnącą popularnością cieszą się usługi backupu w chmurze. Według firmy badawczej Market Research Future w 2023 r. globalna wartość tego segmentu rynku wyniesie 5,66 mld dol., a roczne tempo wzrostu w latach 2017–2023 sięgnie 21 proc. Optymistyczne prognozy wynikają z faktu, że bezpośrednie tworzenie kopii zapasowych do repozytorium znajdującego się w chmurze publicznej eliminuje kłopoty związane ze skalowalnością i ogranicza wydatki na infrastrukturę.
W najbliższych latach wzrośnie zapotrzebowanie na zaawansowane rozwiązania jednocześnie wykonujące niezliczoną liczbę zadań związanych z tworzeniem kopii zapasowych i zapewniające powierzchnię dyskową do ich przechowywania. Poza tym duże i średnie przedsiębiorstwa muszą zapanować nad tysiącami punktów końcowych. Niegdyś pracownik korzystał wyłącznie z komputera PC, obecnie także ze smartfona i tabletu. Nowe wyzwania często przekraczają możliwości klasycznej architektury, w której kluczową rolę spełniał przeznaczony do backupu serwer, odbierający dane z punktów końcowych. Chmura publiczna zaczyna więc być postrzegana przez ekspertów jak idealne środowisko do tworzenia kopii zapasowych.
Dostawcy oprogramowania do backupu bardzo szybko dostrzegli potencjał środowiska chmurowego. Ich produkty są dostosowane do nowych reguł i spełniają wymagania w zakresie bezpieczeństwa zarówno w danych znajdujących się w firmowych zasobach, jak i w Amazon Web Service, Microsoft Azure, Google Cloud Platform lub IBM Bluemix.
– Zauważam powolną ewolucję w kierunku chmury. Ważne, że na rynku są już rozwiązania, które zapewniają szybkie i bezpieczne tworzenie kopii zapasowych i replikacji w chmurze wybranego dostawcy. Takie produkty oferują m.in. Veeam, Commvault czy Veritas – mówi Paweł Bociąga, prezes zarządu Symmetry.
Warto przy tym zwrócić uwagę na fakt, że integratorzy chętnie włączają do oferty backup w formie usługi. Wielu z nich właśnie w ten sposób rozpoczyna swoją przygodę z chmurą. Na tej zasadzie działa Netology, współpracując z operatorem centrów danych 3S. Innym dostawcą usług backupu i odzyskiwania danych jest warszawski integrator Engave. Przedsiębiorcy współpracujący z rodzimymi dostawcami zawsze mogą liczyć na indywidualne podejście, co w przypadku globalnych usługodawców raczej nie jest możliwe.
Zdaniem specjalisty
Tomasz Krajewski, Regional Presales Manager, Eastern EMEA, Veeam
Brak dostępu do danych oraz proces ich odzyskiwania powinny trwać jak najkrócej, gdyż przestoje można przeliczyć na realnie stracone pieniądze i nierzadko decydują one o być albo nie być firmy. Może się okazać, że trwający trzy dni przestój doprowadzi do jej upadku. Do tego nieplanowane przestoje opóźniają inicjatywy cyfrowej transformacji. Tak twierdziło blisko dwie trzecie respondentów zeszłorocznego, szóstego branżowego Veeam Availability Report. Ponadto aż 82 proc. firm zmaga się z tzw. deficytem dostępności, czyli różnicą między potrzebami użytkowników a możliwościami ich zaspokojenia przez dział IT.
Artur Cyganek, dyrektor regionalny na kraje Europy Wschodniej, Acronis
Współczesne środowiska informatyczne są dużo bardziej dynamiczne niż jeszcze kilka lat temu. Często mamy do czynienia z rozwiązaniami hybrydowymi, rozproszonymi między wieloma różnymi platformami. Użytkownicy poszukują narzędzi, które za pomocą jednego spójnego interfejsu zapewnią wykonanie backupu z lokalnej maszyny wirtualnej działającej na dowolnej platformie wirtualizacyjnej, serwera fizycznego, laptopa oraz wirtualnego prywatnego serwera umieszczonego w dowolnej chmurze.
Sławomir Karpiński, prezes zarządu Connect Distribution
Spektakularne ataki ransomware zburzyły spokój wielu administratorów, którzy polegali na tradycyjnym backupie na nośnikach dyskowych. Okazało się bowiem, że dyski te mogą być równie łatwo zaszyfrowane jak systemy produkcyjne. Ponadto uwidocznił się znany od lat problem, że nie wszystkie firmy regularnie testują procedury odtworzenia z backupu. Choć dysponowały oprogramowaniem i przestrzenią do tworzenia kopii zapasowych, przywrócenie systemu było niemożliwe lub czas odtworzenia nieakceptowalny. Dlatego coraz większą popularność zdobywają alternatywne sposoby zabezpieczania danych, jak chociażby replikacja najważniejszych maszyn wirtualnych do oddalonego centrum zapasowego w chmurze prywatnej lub publicznej.
Backup dla SaaS
SaaS to obecnie najpopularniejsza usługa chmurowa. Gartner szacuje, że wartość globalnego rynku oprogramowania jako usługi wyniesie na koniec bieżącego roku 74 mld dol. Dla porównania łączne przychody ze sprzedaży usług chmury publicznej osiągną w 2018 r. 186 mld dol. Na pierwszy rzut oka SaaS wydaje się idealnym rozwiązaniem – klient otrzymuje od ręki nowe oprogramowanie w postaci usługi i nie ponosi wydatków na jego zakup, jak też nie musi martwić się o aktualizacje. Ale, jak zwykle, diabeł tkwi w szczegółach.
Według IDG Research aż 95 proc. użytkowników SaaS jest przekonanych, że obowiązki związane z backupem i odzyskiwaniem danych spoczywają na barkach usługodawców. Tymczasem Microsoft, Google czy Salesforce stosują zasady ograniczonej odpowiedzialności. W efekcie operator odpowiada wprawdzie za utratę danych w przypadku awarii własnego sprzętu lub oprogramowania, klęski żywiołowej i przerwy w dostawach energii. Natomiast umywa ręce, gdy przyczyną kłopotów jest błąd pracownika klienta, ale także atak hakerski. Wbrew pozorom nie są to sporadyczne przypadki – aż 77 proc. użytkowników SaaS w ciągu roku dotknęła utrata danych. Takie firmy bezpowrotnie tracą dokumenty bądź muszą słono płacić za ich odzyskanie (np. w Salesforce ceny tej usługi zaczynają się od 10 tys. dol.).
Część dostawców oprogramowania do backupu (Barracuda, Kasseya, Veeam Software, Odaseva, Veritas) wykazuje zainteresowanie tym segmentem rynku. Zapewniają najczęściej zabezpieczenia dla Office 365, Salesforce’a oraz Google Suite.
Backup wirtualnych maszyn
Wirtualizacja serwerów przestała być nośnym tematem, co wcale nie oznacza, że ten segment rynku zastygł w bezruchu. Wprawdzie VMware vSphere i Hyper-V nadal pozostają najpopularniejszymi platformami, ale klienci poszukują alternatywnych rozwiązań. Z badań Enterprise Strategy Group wynika, że ponad 60 proc. instytucji korzysta z więcej niż jednego hiperwizora. W ostatnim czasie szczególnie duże wzięcie mają produkty dostępne w ramach otwartego oprogramowania, a najbardziej KVM.
Wysyp platform wirtualizacyjnych nie pozostaje bez wpływu na rozwiązania do tworzenia kopii zapasowych. Z jednej strony na rynku debiutują nowi gracze, tacy jak HYCU, opracowujący systemy backupu wyłącznie dla Nutanixa, z drugiej doświadczeni producenci wzbogacają swoje rozwiązania o funkcje do obsługi kolejnych hiperwizorów. Zresztą tego typu działań oczekują od nich integratorzy.
– Istniejących rozwiązań do backupu w przypadku Hyper-V oraz vSphere jest bardzo wiele. W moim przekonaniu warto zainteresować się wprowadzeniem tego rodzaju systemów na platformach bazujących na systemie Linux, jak KVM oraz Xen. I tego należałoby oczekiwać od kolejnej generacji rozwiązań do backupu maszyn wirtualnych – mówi Paweł Bociąga.
W podobnym tonie wypowiada się Tomasz Spyra, prezes Rafcomu. Według niego jednym z wyzwań stojących przed producentami jest dostarczenie rozwiązania do zabezpieczania środowisk wirtualne, niezależnie od ich wielkości i platformy.
Plany rozwojowe producentów nie ograniczają się do poszerzania współpracy z kolejnymi platformami wirtualizacyjnymi. Jednym z najważniejszych zadań jest wsparcie procesów migracji w taki sposób, żeby móc odtwarzać kopie zapasowe z firmowej serwerowni w chmurze publicznej. To ważne, bowiem większość przedsiębiorców już wkrótce będzie korzystać nie tylko z własnych centrów danych, ale również ze środowisk chmurowych Azure, AWS lub lokalnych dostawców usług. Przemysław Mazurkiewicz zwraca przy tym uwagę, że nowoczesny backup maszyn wirtualnych powinien także uwzględniać ochronę rozwiązań kontenerowych, zwiększenie automatyzacji oraz minimalizację niekontrolowanego wzrostu liczby maszyn wirtualnych.
Generalnie rynek rozwiązań do ochrony danych otwiera szerokie możliwości przed integratorami, którzy nie boją się wyzwań. Zmiany w tym segmencie mają bardzo dynamiczny charakter. Najważniejsi gracze, a także startupy, wprowadzają w życie innowacyjne pomysły zarządzenia zasobami cyfrowymi.
Podobne artykuły
IDC: Polska pilnie potrzebuje strategii budowy przestrzeni danych
Od dwóch do dziesięciu lat – tyle czasu ma zająć wdrożenie w Polsce unijnego prawa dotyczącego zdrowia.
BotGuard: pogromca złośliwych botów
Większość organizacji w ostatnim czasie koncentruje się na ochronie przed atakami ransomware czy DDoS. Jednak w ich cieniu czają się inne poważne zagrożenia, w tym złośliwe boty.
Puls branży IT
Istotne trendy produktowe, technologiczne, biznesowe, w oparciu o dane pochodzące z renomowanych agencji analitycznych, organizacji branżowych i globalnych mediów, dotyczące głównie Europy i Polski.