Nuda na światowym rynku ochrony danych nam nie grozi. Dostawcy rozwiązań z jednej strony starają się nadążać za zmianami technologicznymi i uregulowaniami prawnymi, z drugiej zaś wyprzedzać działania hakerów. W ostatnich kilkunastu miesiącach największym wyzwaniem wydaje się odpowiednie zabezpieczenie plików przed atakami typu ransomware. Według prognoz Cybersecurity Ventures szkody finansowe wywołane przez ten rodzaj złośliwego oprogramowania wyniosą w 2021 r. aż 20 mld dol. Dla porównania w 2015 r. było to 325 mln dol.

Kolejną ważną kwestię stanowi zabezpieczenie zasobów przechowywanych w różnych środowiskach, w tym chmurach publicznych i hybrydowych. Coraz więcej mówi się o tzw. hiperkonwergentnej ochronie danych i można się tutaj doszukać wielu analogii z infrastrukturą hiperkonwergentną, w której ramach zunifikowane systemy, oferujące wiele różnorodnych funkcjonalności związanych z ochroną i zarządzaniem danych, mają zastąpić wyspecjalizowane narzędzia do backupu, archiwizacji czy disaster recovery. Specjaliści zwracają też uwagę na konteneryzację, która w nieodległej przyszłości zmieni podejście do kwestii związanych z obsługą i przetwarzaniem danych. Nie bez przyczyny VMware zaprezentował kilka miesięcy temu Tanzu Mission Control, czyli system umożliwiający administratorom ustawianie zasad dostępu, tworzenia kopii zapasowych, zabezpieczeń i innych elementów dla klastrów Kubernetes w różnych środowiskach. Ciekawe projekty związane z obsługą danych w środowisku kontenerów realizują też takie start-upy jak Diamanti czy Portworx.

 

Oszczędzanie na bezpieczeństwie

Chociaż informacje o światowych nowościach docierają do nas lotem błyskawicy, to jednak nie można powiedzieć tego o tempie wdrożeń. Czasami można odnieść wrażenie, że czas zatrzymał się u nas w miejscu, a hakerzy omijają Polskę szerokim łukiem. Rodzimi przedsiębiorcy myślą najczęściej o bezpieczeństwie dopiero po utracie dostępu do danych bądź po wycieku wrażliwych informacji. Potwierdzają to liczne przypadki opisywane w mediach, a także wyniki badań przeprowadzanych wśród polskich firm. Przykładowo, na początku bieżącego roku ukazała się trzecia edycja raportu Vecto „Cyberbezpieczeństwo w polskich firmach 2020”. Wnioski płynące z tej publikacji nie napawają zbyt dużym optymizmem. Okazuje się, że ponad połowa rodzimych przedsiębiorstw nie jest prawidłowo zabezpieczona przed cyberatakami, a 46 proc. nie korzysta z usług specjalistów, którzy dbają o ochronę danych i systemów IT.

Oszczędności w stosowaniu ochrony antywirusowej oraz rozwiązań backupowych komputerów stacjonarnych i mobilnych przez polskie firmy dobitnie wybrzmiewają w naszym raporcie – przyznaje Jakub Wychowański, członek zarządu Vecto.

Problem ten od dawna dostrzegają także integratorzy. Tomasz Spyra, CEO Rafcomu, przyznaje, że firmy, wybierając rozwiązania ochronne, dopasowują system do budżetu, a nie wymagań polityki ochrony danych. Autorzy raportu „Cyberbezpieczeństwo w polskich firmach 2020” zwracają uwagę na fakt, że nawet regulacje prawne nie zawsze motywują przedsiębiorców do inwestycji w odpowiednie narzędzia. Wkrótce upłyną dwa lata od wprowadzania w życie RODO, a mimo to 15 proc. ankietowanych deklaruje, że w ich firmach nie stosuje się wytycznych wskazanych w dyrektywie, 30 proc. zaś nie potrafi wskazać, czy i jakie zalecenia są stosowane. Tylko 26 proc. ankietowanych przyznaje, że stosuje backup i ma zdolność do szybkiego przywrócenia danych osobowych i dostępu do nich w razie incydentu fizycznego lub technicznego.

 

Błąd za błędem

Część firm wychodzi z założenia, że inwestycje w oprogramowanie lub rozwiązania sprzętowe do backupu zapewnią im święty spokój. Tymczasem specjaliści od bezpieczeństwa twierdzą, że to dopiero pierwszy krok na drodze do mozolnego budowania systemu do ochrony i zarządzania danymi.

Inwestycja w system wysokiej klasy nie przyniesie efektu, jeśli użytkownicy nie pozbędą się złych nawyków. Co gorsza, firmy i instytucje muszą działać w zgodzie z regulacjami lokalnymi i międzynarodowymi. To często wymaga odejścia od starych, utartych praktyk, a jak wiadomo, najtrudniej zmienić przyzwyczajenia i mentalność pracowników – tłumaczy Mariusz Strzemiecki, Business Development Manager IBM Software w Tech Dacie.

Jednym z najczęściej popełnianych błędów przez pracowników jest tworzenie łatwych i prostych do złamania kodów zabezpieczających. Na liście 100 najgorszych haseł, opracowanej przez SplashData, wciąż królują takie kwiatki, jak: „1234”, „123456” i „qwerty”. Nie mniej kłopotów administratorom IT przysparzają użytkownicy otwierający e-maile nieznanego pochodzenia. Czasami też zawodzą same działy informatyczne, które zapominają o aktualizacji oprogramowania. Nie bez przyczyny specjaliści od ochrony cały czas przypominają o edukacji użytkowników.

Integratorzy powinni uświadamiać klientom konieczność stosowania backupu i archiwizacji. Ważne, by informowali zarówno o ryzyku, na jakie narażają się firmy, nie stosując rozwiązań zabezpieczających, jak i wymogach, które przedsiębiorstwa muszą spełniać. Powinni także pokazywać korzyści i usprawnienia, które może zagwarantować właściwy system ochrony danych – mówi Mirosław Chełmecki, dyrektor działu pamięci masowych i serwerów w Veracompie.

Teoretycznie prowadzenie akcji edukacyjnych wśród użytkowników końcowych mogłoby przynieść integratorom dodatkowe profity. Jednak same negocjacje z klientami, zwłaszcza z segmentu MŚP, wymagają dużej cierpliwości i gotowości pójścia na kompromis. Mniejsi przedsiębiorcy, a także lokalne jednostki samorządowe z reguły dysponują ograniczonymi środkami na cyberbezpieczeństwo, a poza tym nie zatrudniają specjalistów IT.

Znamienny jest przypadek urzędu gminy w Kościerzynie, który pod koniec ubiegłego roku padł ofiarą ataku ransomware. Złośliwe oprogramowanie sparaliżowało pracę instytucji, przyczyniając się do opóźnienia w wypłacie zasiłków. Hakerzy zażądali okupu za odszyfrowanie plików, a w odpowiedzi wójt gminy poinformował media o zaistniałym fakcie, angażując do pomocy policję, ABW i CERT Polska. Pliki udało się odszyfrować dopiero jednemu z producentów antywirusów, który zrobił to nieodpłatnie. Niestety, większość podobnych historii nie ma szczęśliwego zakończenia, a ofiary nie mają co liczyć na szlachetne gesty ze strony vendorów. Co ciekawe, hakerzy w ostatnim czasie zintensyfikowali ataki na placówki publiczne. Kaspersky informuje, że w 2019 r. 174 instytucje miejskie i ponad 3 tys. podległych jednostek padło ofiara? atako´w ransomware – to oznacza wzrost o 60 proc. w stosunku do roku poprzedniego.

 

 

Unifikacja na ratunek

Jednym z największych problemów występujących w segmencie produktów zabezpieczających infrastrukturę IT jest nadmierne rozdrobnienie. Z podobnym zjawiskiem mamy do czynienia na rynku rozwiązań do ochrony danych. Andrzej Fitt, Business Development Manager w Vayana Technologie Informatyczne, przyznaje, że nawet największe instytucje w Polsce, w tym również banki, zazwyczaj korzystają z dwóch systemów do backupu.

Przede wszystkim jest wdrażany klasyczny „kombajn”, którego administrowanie wymaga specjalnego zespołu. A jego uzupełnienie stanowi zazwyczaj zajmująca niewiele miejsca aplikacja, przeznaczona do zabezpieczenia maszyn wirtualnych – tłumaczy Andrzej Fitt.

Niewiele lepiej przedstawia się sytuacja w MŚP, gdzie na ogół korzysta się z kilku aplikacji i urządzeń przeznaczonych do backupu, archiwizacji, analizy i raportowania. Wiele wskazuje na to, że wraz z przyrastającą ilością danych, a także popularyzacją usług chmurowych firmy zaczną poszukiwać zintegrowanych narzędzi. Dlatego też w nieodległej przyszłości należy spodziewać się wzrastającego popytu na rozwiązania all-in-one, umożliwiające ochronę danych, obsługę DevOps i indeksowane wyszukiwanie. Systemy tej klasy zapewniają również zarządzanie backupem, kopiami dokumentów, archiwum i zasobami przechowywanymi w chmurze publicznej.

 

Zdaniem specjalisty

Tomasz Spyra, CEO Rafcomu

Technologiczny wyścig sprawia, że na rynek czasami trafiają niedopracowane produkty. W rezultacie coraz częściej rolę testerów odgrywają sami klienci. Kolejnym wyzwaniem jest zapewnienie przez partnera odpowiedniego wsparcia technicznego podczas rozwiązywania problemów lub likwidacji błędów pojawiających się w trakcie lub po zakończonym wdrożeniu. Niestety, bardzo często czas reakcji jest zbyt długi i przekracza deklarowane w umowie poziomy SLA.

 

Mirosław Chełmecki, dyrektor działu pamięci masowych i serwerów, Veracomp

Backup danych i archiwizacja to dwa różne procesy zabezpieczania danych, które odpowiadają na różne potrzeby. Kryterium backupu jest minimalny czas odtworzenia danych i zapewnienie ciągłości działania systemu informatycznego firmy. W przypadku archiwizacji zaś kluczowy jest czas przechowywania danych i gwarancja możliwości skorzystania z nich w przyszłości. Oba procesy można realizować oddzielnie, ale zastosowanie zunifikowanego systemu do backupu i archiwizacji umożliwia optymalizację kosztów związanych z utrzymaniem infrastruktury sprzętowej, zakupem i utrzymaniem oprogramowania oraz ułatwia zarządzanie danymi w przedsiębiorstwie. Z obu procesów muszą korzystać firmy, których dotyczą regulacje prawne narzucające konieczność archiwizacji danych. Są to m.in. instytucje finansowe oraz te z sektora publicznego i ochrony zdrowia.

 

 

W jednym urządzeniu all-in-one znajdują się wszystkie składowe systemu backupowego (oprogramowanie, serwery, proxy, storage itp.). Prekursorami tego trendu są start-upy Cohesity i Rubrik, (oba mają w Polsce swoich dystrybutorów), ale podobne rozwiązania oferują obecnie Dell EMC i Commvault. Produkty tych firm zapewniają integrację lokalnego centrum danych z zasobami chmurowymi, dzięki czemu można w prosty sposób archiwizować kopie zapasowe do chmury.

Niezależnie od stopnia unifikacji tego typu rozwiązania muszą nadążać za ciągle zmieniającymi się trendami IT, nowymi kanałami komunikacji, innowacyjnymi sposobami przesyłania, składowania i analizy danych. Bezpieczeństwo danych powinno stanowić podstawę funkcjonowania każdej firmy. Klienci doceniają unifikację, ponieważ zapewnia ograniczenie kosztów i uwolnienie zasobów, które trzeba by było zaangażować przy mniej wszechstronnych produktach – wyjaśnia Mariusz Strzemiecki.

Wprawdzie rodzime firmy są umiarkowanie zainteresowane zunifikowanymi rozwiązaniami do ochrony danych, ale za to pewną aktywność przejawiają na tym polu integratorzy. Netology oferuje systemy all-in-one w modelu usługowym dla MŚP, których nie stać na zakup platformy. Z dużym optymizmem patrzą też na ten segment rynku przedstawiciele Vayany, która wprowadziła do oferty produkty Cohesity i Rubrika.

Bardziej wymagający klienci przestaną dostrzegać wartość biznesową narzędzi typu „backup and recovery”. Zaczną poszukiwać zunifikowanych rozwiązań zapewniających zarządzanie danymi w różnych środowiskach IT, wykorzystujących metadane w procesach uczenia maszynowego czy wykrywających ransomware i błyskawicznie przywracających do pracy pliki – twierdzi Andrzej Fitt.

Już dziś ci nieco więksi klienci rozglądają się za alternatywą dla NAS-ów i taśm. Niewykluczone, że ich miejsce zajmie pamięć obiektowa, idealnie przystosowana do przechowywania dużych zbiorów danych. Coraz częściej mówi się o zmierzchu popularnego protokołu NDMP, opracowanego w 1995 r. przez NetApp w celu efektywnej interakcji serwerów NAS z systemami wykonującymi kopie zapasowe. Kilkanaście lat temu, kiedy macierz przechowywała kilkanaście terabajtów, ten standard zdawał egzamin. Obecnie korporacyjne NAS-y przechowują nawet 1 PB plików, a średnio przy poziomie około 150 TB sprawy się komplikują. Niestety, obok innowacyjnych rozwiązań i ciekawych pomysłów na rynku wciąż funkcjonują produkty, które nie nadążają za duchem czasu. Najlepszym przykładem są rozwiązania do tworzenia backupu, które nie gwarantują ochrony przed ransomware’em. Trudno się zatem dziwić, że mnóstwo cyberataków rozpoczyna się od zaszyfrowania kopii zapasowej, a następnie reszty plików.