Rozwiązania IT w coraz większej liczbie małych i średnich firm różnią się od korporacyjnych tylko skalą. Potrzeby różnej wielkości podmiotów dotyczące przetwarzania, przechowywania i archiwizowania danych stały się podobne. Praktycznie nie ma już mowy o niedostępności usług przez dłużej niż kilka minut, nie jest akceptowana utrata danych z całego dnia pracy, a ich całkowita strata może wiązać się wręcz z koniecznością zamknięcia firmy.

 

Taka sytuacja jest idealna dla integratorów, którzy chcą świadczyć kompleksowe usługi. Klienci zrozumieli już bowiem, jaką wartość stanowi dla nich informacja, i coraz chętniej rozmawiają o procesach związanych z ochroną danych, a nie tylko o sprzęcie czy oprogramowaniu, które daną funkcję zapewni. W wielu przypadkach to także otwarta droga do sprzedaży usług chmurowych – backupu online i wirtualnych serwerów.

Współpraca z mniejszymi klientami ma jednak pewne charakterystyczne cechy. Zawsze trzeba pamiętać, że trzy razy oglądają każdą wydaną złotówkę. Dlatego integrator musi zagwarantować, że kupione przez klienta rozwiązanie spełni założony cel. Inaczej współpraca skończy się dość szybko. W tym przypadku bowiem znacznie trudniej ukryć własny błąd niż podczas większych projektów, gdzie odpowiedzialność często jest rozmyta. Na korzyść natomiast działa fakt, że – szczególnie w małych firmach – raczej nie ma problemów ze skalowalnością. W znakomitej większości przypadków ich potrzeby zaspokoi średniej klasy serwer NAS z kilkoma dyskami.

 

Dostępność ważniejsza niż pojemność

W ostatnich latach zmieniły się priorytety związane z przechowywaniem danych. Mimo że statystyki pokazują przyrost ilości elektronicznych informacji, z jakim nie mieliśmy nigdy do czynienia, zjawisko to nie dotyczy małych firm, lecz głównie dostawców usług i przedsiębiorstw przetwarzających dane w modelu Big Data. Zapotrzebowanie na pojemność w mniejszych podmiotach nie stanowi problemu. Niewiele z nich dysponuje biznesowymi danymi, których objętość przekracza jeden terabajt (oczywiście z wyjątkiem tych przedsiębiorstw, które przetwarzają duże pliki multimedialne). Oznacza to, że wszystkie firmowe informacje można byłoby zmieścić na jednym dysku… sprzed kilku lat.

 

Natomiast duża zmiana dotyczy ciągłości pracy. Zarządy firm praktycznie przestały akceptować fakt, że kluczowe dla funkcjonowania przedsiębiorstwa systemy IT mogą być niedostępne przez dłuższy czas. Co więcej, często nawet spowolnione działanie w wyniku dużego obciążenia systemów bywa przedmiotem zgłoszenia serwisowego. Zatem zapewnienie ciągłości pracy to priorytet w doborze właściwych rozwiązań. System przechowywania danych musi być bowiem skonstruowany tak, aby w przypadku awarii lub katastrofy użytkownicy w miarę możliwości w ogóle nie odczuli przestoju. Odzyskiwanie informacji z backupu powinno raczej stanowić ostateczność.

Gwarancję nieprzerwanego dostępu można uzyskać jedynie poprzez utworzenie – podobnie jak w przypadku backupu– zbioru różnych procesów i procedur. Powinny uwzględniać kilka kluczowych kwestii. Po pierwsze tę związaną z sieciami, a konkretnie ich odpowiednią przepustowością, możliwością bezprzewodowego podłączenia się czy szyfrowaniem połączeń zdalnych. Ważna jest ponadto ochrona danych przed utratą, co zapewni struktura RAID w macierzy, replikacja i backup. Wreszcie należy zadbać o szybkie przywrócenie dostępu w przypadku różnego rodzaju awarii. Pomogą w tym spisane i przetestowane procedury działania realizowane przez administratorów lub zewnętrzne firmy świadczące usługi wsparcia.

 

RAID, NAS, SSD…

Jak już wspomnieliśmy, pojemność systemów pamięci masowych nie stanowi dla mniejszych firm tak dużego wyzwania, jak zapewnienie odpowiedniej wydajności. Między innymi z tego powodu zmuszone są do inwestowania w macierze dyskowe, w których – w dużym uproszczeniu – łączna wydajność jest sumą wydajności wszystkich aktywnych twardych dysków (o ile kontroler macierzowy nie jest wąskim gardłem). Kolejna ich zaleta to możliwość połączenia dysków w strukturę RAID, dzięki której awaria jednego lub dwóch napędów nie powoduje utraty danych.

 

Wojciech Kotkiewicz
szef działu wsparcia technicznego, ABC Data Value+

Wykorzystanie dysków SSD w serwerach NAS jeszcze niedawno mogło uchodzić za ekstrawagancję, głównie ze względu na cenę tego nośnika. Jednak rozwiązania te dość szybko stały się popularne, głównie za sprawą pojawienia się układów 3D NAND TLC, w których w jednej komórce można zapisać aż trzy bity pamięci. Co prawda, niektórzy sceptycy podkreślają, że wspomniane napędy nie nadają się do zastosowań w dużych, profesjonalnych środowiskach IT, ze względu na niezweryfikowaną jeszcze w pełni niezawodność, ale w mniejszych mogą stanowić rozsądny kompromis między wydajnością i ceną.

 

W mniejszych firmach dużą i zasłużoną popularność zyskały wielofunkcyjne serwery NAS. Najmniejsze modele tych urządzeń (od jednego do czterech dysków) sprawdzają się u użytkowników prywatnych i w mikroprzedsiębiorstwach, ale większe dobrze radzą sobie – także pod względem wydajności – w bardziej wymagających zastosowaniach. Większość dostawców zadbała o certyfikaty zgodności przyznane przez producentów rozwiązań wirtualizacyjnych, chociaż liczba uruchomionych równocześnie wirtualnych maszyn raczej nie powinna przekraczać kilkunastu. Z drugiej strony, naprawdę niewiele małych i średnich firm potrzebuje do pracy tak wielu wirtualnych serwerów.

– W codziennej pracy odczytywana i zapisywana jest ilość danych stanowiąca nie więcej niż kilkanaście procent objętości danej wirtualnej maszyny. Poza tym serwery NAS świetnie sprawdzają się jako repozytorium backupu w środowiskach wirtualizacyjnych – przekonuje Grzegorz Bielawski, szef polskiego oddziału QNAP.

W serwerach NAS, które umożliwiają instalację ośmiu lub więcej twardych dysków, warto rozważyć zainstalowanie kilku rodzajów nośników danych. Jako miejsce do przechowywania plików można zastosować zwykłe dyski SATA. Dla danych, które ulegają ciągłym modyfikacjom – w bazach danych lub wirtualnych maszynach – można przeznaczyć dyski SSD. Natomiast do zapisywania danych z wideomonitoringu należy zastosować specjalne twarde dyski oferowane przez wszystkich trzech obecnych na rynku dostawców – Seagate’a, Toshibę i WD. Kontroler tych napędów został przystosowany do ciągłego zapisu danych i relatywnie bardzo rzadkiego ich odczytu – odwrotnie niż w przypadku tradycyjnego wykorzystania napędów dyskowych.

 

Nowe metody ochrony

Ludzie dzielą się na tych, którzy backup robią, i na tych, którzy… będą go robili po utracie danych. Ta brutalna prawidłowość nadal się sprawdza. W firmach przetwarza się coraz więcej elektronicznych informacji, rośnie więc prawdopodobieństwo ich utraty. To zaś oznacza pozyskanie klienta, dla którego trzeba zaprojektować system tworzenia zapasowych kopii danych. Jaki? To zależy od rodzaju użytkownika.

Backup ratunkiem przed ransomware

Od trzech lat branżę związaną z bezpieczeństwem danych elektryzuje „ransomware” – złośliwy kod, który blokuje dostęp do wybranych zasobów komputera (najczęściej przez zaszyfrowanie danych), a za odblokowanie żąda okupu wpłaconego w bitcoinach do portfela cyberprzestępców.

Najlepszym, bo bezpłatnym, sposobem przeciwdziałania skutkom ransomware jest odzyskanie danych z kopii zapasowej. Natomiast projektując procedury backupowe, należy zwrócić uwagę na to, czy w trakcie ich realizacji oryginalne pliki nie zostaną nadpisane przez te zaszyfrowane. Sytuację komplikuje też fakt, że oprogramowanie ransomware potrafi zaszyfrować nie tylko pliki znajdujące się na lokalnym twardym dysku komputera, ale także te udostępnione przez sieć, np. z serwera NAS. W takiej sytuacji wykonywanie kopii na serwer NAS, a następnie zewnętrzny dysk niewiele pomoże.

Rozwiązania są dwa. Pierwsze to pozostawianie podczas wykonywania backupu także kopii starych wersji plików (pozwala na to większość pakietów oprogramowania do backupu). Drugim jest wykonywanie od czasu do czasu kopii zapasowej na nośniku wymiennym (zewnętrznym twardym dysku, kasecie RDX czy zwykłej taśmie LTO), odłączanym od głównego systemu przechowywania danych.

 

Generalnie firmy nadal interesują się wykorzystaniem taśm do backupu, bo wciąż jest to najtańszy wymienny nośnik w przeliczeniu na jednostkę pojemności (ale też wymagający najdłuższego czasu na dostęp do danych). Taśmy są też coraz bardziej popularne w systemach długoterminowej archiwizacji offline. Natomiast ich zastosowanie w małych i średnich przedsiębiorstwach nie ma sensu, ze względu na rozwijające się usługi backupu online i taniejące, proste systemy do replikacji danych.

Najważniejszym elementem środowiska do backupu w MŚP powinien być wspomniany już serwer NAS z dyskami połączonymi w strukturę RAID, co zapewnia ochronę przed skutkami uszkodzenia dysku. Zainstalowane na komputerach użytkowników oprogramowanie będzie wykonywało kopię na ten serwer zgodnie z założonym harmonogramem (najczęściej raz dziennie). Do serwera można też podłączyć, przez port USB lub eSATA, zewnętrzny dysk o dużej pojemności, aby właśnie na niego trafiała wykonywana w nocy kopia kopii (ochrona przed skutkiem awarii zasilacza lub kontrolera macierzowego serwera). Dane na zewnętrznym dysku trzeba koniecznie zaszyfrować, co uniemożliwi dostęp do nich złodziejowi napędu.

Obecnie już nawet małą firmę stać na zbudowanie systemu replikacji danych między dwoma budynkami, oddalonymi o wiele kilometrów. Dostęp do takiej funkcji zapewnia większość serwerów NAS. Wystarczy kupić dwa bliźniacze urządzenia, zainstalować w nich dyski o podobnej pojemności i skonfigurować je tak, aby dane z serwera określonego jako podstawowy były systematycznie replikowane przez sieć lokalną lub Internet na serwer zapasowy.

Jeżeli użytkownik firmowego laptopa często podróżuje i nie ma połączenia z lokalną siecią, można zainstalować mu oprogramowanie do backupu, które regularnie będzie wykonywało kopię najważniejszych plików na kartę SD, bo większość notebooków ma gniazdo umożliwiające jej instalację. Pojemność karty powinna być zbliżona do dwukrotności objętości zabezpieczanych danych, dzięki czemu będzie miejsce na zapisywanie także poprzednich wersji plików. Gdy awarii ulegnie laptop lub jego twardy dysk, wystarczy wyjąć kartę i włożyć ją do innego laptopa. Dzięki temu użytkownik ma dostęp do swoich danych natychmiast – nie musi ich pobierać z centralnego serwera.

 

Jerzy Adamiak
konsultant ds. systemów pamięci masowych, Alstor

Podczas budowania archiwum elektronicznych danych trzeba pamiętać, że sama archiwizacja, podobnie jak backup, jest procesem, a nie konkretną czynnością. Dlatego, dobierając sprzęt i oprogramowanie, należy uwzględnić, z dużym zapasem, przyrost ilości informacji i możliwe zmiany ich charakteru. Dobrym przykładem może być to, że co parę lat znacznie zwiększa się objętość archiwizowanych treści multimedialnych – zdjęć i wideo – w związku ze wzrostem rozdzielczości matryc w aparatach i kamerach. Warto też być świadomym obowiązującego prawa, np. dotyczącego ochrony danych osobowych lub przechowywania dokumentacji księgowej, bo może ono wpływać na sposób, w jaki należy archiwizować dane.

 
Backup online od integratora

Od niemal dekady słuszne zainteresowanie budzą usługi backupu online. Dzięki coraz szybszym łączom internetowym to idealne rozwiązanie głównie dla często podróżujących pracowników. Ponieważ jest to backup przyrostowy, operacja będzie praktycznie niezauważalna nawet przy połączeniu z Internetem przez łącze komórkowe. W efekcie użytkownik zyska dostęp do danych np. za pomocą smatrfona, jeśli jego laptop ulegnie awarii. Ale z backupu online coraz częściej korzystają także administratorzy wykonujący kopie zgromadzonych centralnie danych. Ułatwia to m.in. oprogramowanie, które obecnie jest wbudowane w większość serwerów NAS.

Proponując klientowi usługi backupu, zawsze trzeba pamiętać o restrykcjach prawnych. Dane osobowe nie powinny opuszczać Unii Europejskiej, ale więcej ograniczeń nakłada „Rozporządzenie ministra finansów z 14 lipca 2005 r. w sprawie wystawiania oraz przesyłania faktur w formie elektronicznej”. Paragraf 6.1 tego rozporządzenia nakazuje, żeby faktury wystawione lub otrzymane drogą elektroniczną były przechowywane na terytorium Polski (w przypadku przechowywania ich na terytorium państwa członkowskiego UE należy poinformować o tym właściwego naczelnika urzędu skarbowego). Dlatego, jeśli chcemy zaoferować klientowi usługę backupu online dokumentów księgowych, warto sprawdzić, gdzie znajduje się centrum danych jej operatora.

Globalnie usługi backupu online świadczone są przez tysiące firm. Nigdy jednak nie wiadomo, której można wystarczająco zaufać i gdzie znajdują się jej centra danych. Dlatego w pewnym momencie klienci zaczęli sugerować swoim zaufanym dostawcom IT, że najchętniej przechowywaliby dane w ich serwerowniach. Nie wszystkich jednak stać na budowę własnych serwerowni, dlatego wypracowano rozwiązanie kompromisowe.

– Firmy partnerskie nie muszą budować własnych serwerowni, aby móc świadczyć usługi backupu online swoim klientom – mówi Marcin Zmaczyński, dyrektor polskiego oddziału Aruba Cloud. – Mogą wykupić u jednego z dostawców usług infrastruktury w chmurze odpowiednią przestrzeń dyskową i, korzystając z komercyjnie dostępnego oprogramowania do backupu, stworzyć własną usługę o identycznej funkcjonalności jak oferowana przez tradycyjnych dostawców.

Dzięki temu integratorzy zyskują dużą swobodę zarówno w zarządzaniu technicznymi parametrami usługi, jak i finansowymi. Mogą dowolnie ustalać politykę cenową wobec swojego klienta, zapewniając mu backup online jako wartość dodaną do innych usług. Finalnie mogą też zarobić znacznie więcej, niż wynosi prowizja (ok. 10 proc.) uzyskana ze zwykłej odsprzedaży lub polecania usług backupu online świadczonych przez firmy trzecie.