Otwierający konferencję Mirosław Chełmecki, dyrektor Działu Pamięci Masowych i Serwerów w Veracompie, przypomniał, że ochrona danych przed niepożądaną zmianą lub usunięciem była i jest konieczna niezależnie od charakteru środowiska, w którym przetwarzane są informacje. Kiedyś były to pojedyncze serwery, dziś są to najczęściej maszyny wirtualne, a wkrótce prawdopodobnie będą to rozwiązania kontenerowe. Do tego dochodzi też konieczność zabezpieczania własnych danych przechowywanych w chmurze, bo – jak pokazuje praktyka – różni usługodawcy nie zawsze dbają o to w należyty sposób. W efekcie część nadmiernie ufających im dostawców musiała pożegnać się ze swoimi danymi na zawsze.

Zdaniem prelegentów do zaprojektowania poprawnie funkcjonującego środowiska backupu konieczne jest rozumienie zabezpieczanych danych. Skończyły się czasy, gdy administrator po prostu zlecał skopiowanie obrazu serwera na taśmę. Dziś rozwiązania techniczne dobiera się w zależności od priorytetów wytyczanych przez biznes. W większych firmach zagwarantowanie wysokiej dostępności dla wszystkich danych okazuje się praktycznie niemożliwe, jak również nieopłacalne, więc konieczne jest przeanalizowanie ich wartości biznesowej i wyznaczenie, jaka ilość danych może ulec utracie oraz w jak szybkim czasie należy przywrócić dostęp do tych zabezpieczonych. Świadomość tego, jakie informacje zawarte są w danych ułatwia też, w razie potrzeby, ich wyszukiwanie.

Dane ze środowisk wirtualnych są dla firm szczególnie ważne. Gdy awarii ulegnie serwer, na którym uruchomionych jest kilka wirtualnych maszyn, w przedsiębiorstwie automatycznie niedostępnych będzie kilka usług. Stąd konieczność wskazania tych wirtualnych serwerów, które powinny działać w klastrze lub u dostawcy usług chmurowych (z reguły ma lepiej zabezpieczoną infrastrukturę). Mnogość dostępnych dziś rozwiązań sprzętowych i oprogramowania gwarantują, że dla każdego klienta znaleźć można rozwiązanie idealnie dopasowane do jego potrzeb.

Dzianis Kashko, dyrektor ds. marketingu i sprzedaży w firmie integracyjnej Comtegra, podkreślał, że administratorzy nie muszą obawiać się spadku zatrudnienia po wprowadzeniu do przedsiębiorstwa kolejnych warstw wirtualizacji i automatyzacji. Ich obawy powinny dotyczyć czegoś innego – nowoczesne środowisko IT wymaga nieustannego nadzoru, zaś administratorzy zyskują dostęp do potężnych narzędzi raportujących. W efekcie ich rola może się znacznie zmienić – z osób, które „robią”, na osoby, które „mówią”. Wszystko wskazuje na to, że już wkrótce zadaniem informatyków będzie raczej przygotowywanie obszernych raportów demonstrujących aktualny stan infrastruktury IT niż samo nią zarządzanie.

W konferencji Backup Forum swoje rozwiązania zaprezentowało 10 firm: Arcserve, Comtegra, HPE, Microsoft, QNAP, Quantum, Red Hat, SEP, Veeam i Veritas. Każdy z trzech bloków tematycznych kończył panel dyskusyjny (wybrane wypowiedzi prelegentów publikujemy obok). Sama konferencja była częścią większego programu All of Backup prowadzonego przez cały rok pod egidą Veracompu. Więcej informacji na ten temat na stronie backup.info.pl.

 

Cała prawda o… backupie

• Krystian Hofman, Business Development Manager, Arcserve

Systemy backupowe ewoluowały z rozwiązań, które miały robić tzw. automatyczną kopię bezpieczeństwa. Dzisiaj oczekuje się od nich, że zapewnią ciągłość pracy przedsiębiorstwa, a przez to zminimalizują straty. Analitycy wskazują, że dla klientów cztery godziny to maksymalny czas od momentu awarii, w trakcie którego powinny zostać odtworzone dane.

 

• Dzianis Kashko, dyrektor ds. marketingu i sprzedaży, Comtegra

Niestety, nadal wyliczenia TCO i ROI nie są wystarczającym argumentem dla klientów do podejmowania decyzji biznesowych. Wciąż w Polsce rzadko uwzględnia się koszty pracy specjalistów – powszechna jest opinia, że zatrudniona w firmach kadra informatyczna jest dyspozycyjna przez całą dobę. A zazwyczaj tak nie jest i może być ciężko, jeśli nie trafi się na prawdziwego pasjonata.

 

• Robert Lejnert, Big Data Practice Presales, HPE

Kiedyś żyliśmy w przekonaniu, że to infrastruktura IT wpływa na to, jak działa firma. Dzisiaj już oczywiste jest, że technologie informatyczne stanowią element większego ekosystemu, związanego nie tylko z kwestiami technicznymi czy biznesowymi, ale także społecznymi lub – coraz bardziej – prawnymi. Dlatego wszystkie te aspekty powinny być uwzględniane w trakcie projektowania takich procesów jak np. backup.

 

• Norbert Blonkowski, inżynier MCT/MCSE/MCITP, Microsoft

Wśród przedsiębiorstw narażonych na włamania 80 proc. stanowią małe przedsiębiorstwa, zatrudniające poniżej 100 pracowników. Ich infrastruktura bezpieczeństwa nie jest tak dobra jak w dużych firmach, a dodatkowo często te mniejsze podmioty służą potem do ataku na większe. Zaatakowanie banku czy firmy energetycznej może być problematyczne. Ale nie będzie trudne zaatakowanie zaufanego partnera takiej instytucji. Dlatego profesjonalne zabezpieczenia powinni stosować absolutnie wszyscy, niezależnie od tego, czy korzystają z infrastruktury wirtualnej lub chmurowej, czy też nie.

 

• Bartłomiej Stępień, Business Development Representative, QNAP

Dziś użytkownicy mają dużą swobodę w doborze systemów do przechowywania maszyn wirtualnych. Mogą wdrożyć serwery NAS certyfikowane przez poszczególnych producentów wirtualnej infrastruktury albo skorzystać z wbudowanej funkcji dockera lub stacji wirtualizacyjnej, pełniącej funkcję pełnoprawnego wirtualizatora bazującego na środowisku KVM.

 

• Marcin Kabaj, Regional Sales Manager, Quantum

Rozwiązania taśmowe nadal świetnie sprawdzają się jako nośnik do backupu i zupełnie wyparły systemy optyczne. Przy czym na rynku został praktycznie tylko standard LTO – rocznie na świecie sprzedaje się 100 tys. napędów LTO i tysiąc zgodnych z innymi standardami. Taśmy podwajają swoją pojemność co dwa lata, a poza tym wprowadzane są do nich nowe sposoby weryfikacji jakości i trwałości zapisu.

 

• Wojciech Mazurek, Channel Manager, Red Hat

Wybierając system backupowy, trzeba szukać rozwiązania, które umożliwi łatwe odtworzenie danych, a to nie zawsze jest oczywiste. To właśnie po skuteczności odzyskania, a nie backupowania, poznaje się dobrego administratora. Dlatego trzeba sprawdzać, czy poszczególne pakiety oprogramowania zostały przetestowane we współpracy ze sobą i uzyskały odpowiednie certyfikaty zgodności.

 

• Wojciech Cegliński, Channel Manager Poland and Baltics, Veeam

Młode firmy na początku działalności powinny zainteresować się ofertą chmury publicznej, bo dzięki niej mogą rozpocząć prowadzenie biznesu praktycznie bez żadnych kosztów wstępnych. Trzeba jednak pamiętać, że korzystanie z chmury publicznej nie zwalnia przedsiębiorstwa z konieczności odpowiedniej ochrony swoich danych i aplikacji, w tym dbania o ich stałą dostępność dla pracowników i klientów. Dlatego równoczesne wykonywanie lokalnego backupu jest wciąż jak najbardziej zalecane.

 

• Mirosław Chełmecki, dyrektor Działu Pamięci Masowych i Serwerów, Veracomp

Dane zawsze trzeba było i trzeba będzie chronić – coraz częściej związane jest to nie tylko z potrzebami biznesowymi, ale także wymogami legislacyjnymi. Kiedyś backupy były wykonywane na taśmę, teraz na dyski, a być może wkrótce będą to nośniki biologiczne, np. DNA. Dlatego trudno jest przyjąć założenie, że raz wdrożony system backupowy będzie starczał na zawsze, ale z drugiej strony trzeba pamiętać, że nawet w ramach już funkcjonującego rozwiązania ochronnego trzeba zapewnić jego skalowalność.

 

• Jarosław Mikienko, inżynier sprzedaży, Veritas

W kontekście optymalizacji wykorzystania serwerów mamy dość stabilną sytuację. Te, które mogły być zwirtualizowane, już zostały poddane temu procesowi. A te usługi, które muszą być świadczone z maszyn fizycznych, na nich pozostaną. Trudno więc spodziewać się większych zmian w tym obszarze, ale na pewno będzie rozwijał się rynek rozwiązań do zarządzania całą tą wirtualną – i na dodatek połączoną z fizyczną – infrastrukturą.