Dobór nośników pamięci masowych wykorzystywanych obecnie przez użytkowników domowych i w małych firmach jest raczej przypadkowy. W nowo kupowanych komputerach pojawiają się dyski HDD i SSD, w aparatach fotograficznych mamy karty SD, w telefonach – microSD. Każda osoba ma zazwyczaj kilka lub kilkanaście pendrive’ów zawierających mniej lub bardziej uporządkowane pliki. Z reguły zgromadzone dane nie są objęte żadną strategią przechowywania i zabezpieczania. Jeśli więc ich użytkownik z natury nie jest pedantyczny, mamy do czynienia z „zarządzaniem przez chaos”, co stanowi obecnie najpopularniejszą metodę radzenia sobie z cyfrowymi zasobami.

Jednak to właśnie prywatni użytkownicy generują objętościowo najwięcej danych – zdecydowanie więcej niż małe i średnie firmy (w przeliczeniu na jednego pracownika). Oczywiście, największą objętość mają zdjęcia i filmy, zarówno te nagrane samodzielnie, jak i pobrane – legalnie lub nie – z internetu. Zapewnienie miejsca do przechowania tak dużej ilości informacji, ale też ich odpowiednie zabezpieczenie przed utratą staje się dużym wyzwaniem.

Resellerzy z wartością dodaną mogą zaproponować klientom kilka rodzajów działań, dzięki którym przechowywanie i zapewnianie ochrony ich plików będzie prostsze, bardziej komfortowe, a czasami wręcz tańsze niż stosowane dotychczas metody. Bardzo ważne jest jednak poznanie potrzeb klienta i wspólne opracowanie sposobu przechowywania danych oraz dobór adekwatnych narzędzi – nośników i oprogramowania do backupu.

Nośniki na dane zimne i gorące

Podobnie jak duże przedsiębiorstwa, użytkownicy indywidualni i mikrofirmy mają dane określane jako „hot” i „cold”. Te gorące to pliki, nad którymi obecnie pracują bądź które zostały wytworzone ostatnio i często są używane. Do danych zimnych należy zaliczyć wszystkie informacje, po które sięga się bardzo rzadko lub wcale, ale są przechowywane „na wszelki wypadek”. Podział danych według tego kryterium jest dość prosty, a ze statystyk wynika, że te gorące z reguły zajmują mniej niż 10 proc. całego repozytorium użytkownika.

Spadające od lat ceny nośników SSD sprawiły, że stosowanie dysków twardych do przechowywania systemu operacyjnego, aplikacji oraz na bieżąco przetwarzanych danych przestało już mieć sens. Pamięć flash wygrywa przede wszystkim dzięki wyższej o kilka rzędów wielkości wydajności, ale też mniejszemu poborowi prądu i znacznej odporności na wstrząsy, co ma szczególne znaczenie w przypadku laptopów. Pojemności dysków SSD nadal są jednak relatywnie niewielkie (obecnie najczęściej kupowane są nośniki mające 250 i 500 GB), dlatego należy polecać klientom zwykłe twarde dyski do przechowywania danych archiwalnych i plików multimedialnych. Ich odczyt następuje rzadko, a w przypadku odtwarzania filmów ma charakter sekwencyjny, więc nie jest potrzebna tak duża wydajność, jaką zapewniają nośniki półprzewodnikowe. Najlepiej zatem rekomendować klientom korzystanie z dwóch rodzajów nośników. W komputerach stacjonarnych instalacja dwóch dysków nie stwarza problemu, a w przypadku laptopów warto polecić model umożliwiający instalację dysku SSD w postaci modułu M.2 i zwykłego mechanicznego napędu z interfejsem SATA.

Sprzedając klientowi nowy komputer, należy także upewnić się, czy urządzenie zapewnia współpracę z nośnikami SSD zgodnymi z protokołem NVMe (nie mają z tym problemu wszystkie nowe modele, ale starsze komputery oraz wyposażone w interfejs inny niż M.2 mogą nie być kompatybilne z protokołem NVMe). To ważne, ponieważ dzięki temu standardowi wyeliminowano ostatnie wąskie gardło istniejące w architekturze komputerów – komunikację przez wolny interfejs między nośnikiem danych a magistralą. Popularny do tej pory interfejs SATA nie przewidywał równoległego przesyłania dużej ilości danych. Głowica dysku nie może znajdować się w dwóch miejscach w tym samym czasie, więc transfer danych w tym przypadku ma charakter sekwencyjny. Tymczasem w jednym cyklu dostępu do pamięci NVMe teoretycznie możliwa jest realizacja nawet 64 tys. żądań odczytu, do czego dziś nie są jeszcze gotowe ani procesory, ani magistrale komputerów, ani aplikacje. A zatem teoretycznie pamięć NVMe zapewnia wydajność na zapas.

 

O flash trzeba dbać

Dyski SSD nie są jednak niezniszczalne – wbrew temu, co często można przeczytać w materiałach marketingowych producentów. Owszem, są całkowicie odporne na wstrząsy, więc wyeliminowano ryzyko utraty danych w wyniku uderzenia głowicy w talerz dysku. Wyzwanie nadal stanowi jednak nieograniczony zapis danych w stosowanych w tych nośnikach kościach pamięci NAND. Ich komórki podczas każdej operacji zapisu tracą elektroniczne właściwości, co sprawia, że po jakimś czasie nie są w stanie przechowywać danych. Ich trwałość określa się w cyklach zapisu i kasowania. W najtańszych, popularnych obecnie dyskach SSD liczba takich cykli, w ramach których dostawca pamięci gwarantuje trwałość danych, określana jest na 500–700. To niewiele, ale w praktyce zwykłym konsumentom wystarczy. Problem rodzi się wówczas, gdy dane są zapisywane i kasowane bardzo często. Dlatego w nośnikach SSD znajdują się specjalne kontrolery dbające o równomierne rozłożenie zapisu danych na całym nośniku. W ten sposób minimalizowane jest prawdopodobieństwo częstego wykorzystania tych samych komórek pamięci.

Warto zatem tłumaczyć klientom, że nie powinni kupować najmniejszych nośników (np. 120 GB), jeśli posiadane przez nich dane wypełnią je prawie całkowicie. Gdy na dysku SSD znajduje się system operacyjny, a po wypełnieniu go aplikacjami i danymi pozostaje niewiele miejsca, plik wymiany danych poddawany jest bardzo częstym modyfikacjom, przez co częstotliwość ponownego zapisu tych samych komórek znacznie rośnie. Powoduje to obniżenie efektywnej trwałości dysku i konieczność szybciej jego wymiany. Dlatego należy polecać klientom dyski o takiej pojemności, w przypadku których zawsze zagwarantowane będzie 20-30 proc. wolnego miejsca.

Wszyscy producenci dysków SSD udostępniają własne aplikacje, które dostarczają informacji o ogólnym stanie technicznym nośników oraz o tym, ile danych zostało zapisanych od początku pracy urządzenia. Tę wartość należy porównywać z podawaną przez producentów wartością parametru TBW (Total Bytes Written) określającego, ile bajtów można zapisać na dysku w trakcie jego eksploatacji, aby mieć zagwarantowaną trwałość danych. Gdy przekroczy ona limit, nośnik trzeba wymienić, ponieważ w tym momencie z reguły przestaje obowiązywać gwarancja. 

Niestety, wiedza o istnieniu takiego parametru jak TBW nie jest rozpowszechniona. Znają go użytkownicy profesjonalni, ale zwykli konsumenci przy wyborze kierują się głównie ceną. Tu ważna jest rola resellerów, którzy powinni im wytłumaczyć, że nośniki SSD są jak opony w samochodzie. Regularnie trzeba sprawdzać ich stan i być gotowym, że od czasu do czasu trzeba kupić nowe – mówi James Tseng, Deputy Manager Product Marketing, Adata Technology.

Nowością w przypadku dysków SSD jest też inna niż w mechanicznych napędach bezpieczna procedura usuwania danych, np. gdy dysk ma trafić do odsprzedaży lub – po zużyciu wszystkich komórek – do utylizacji. Stosowane wobec twardych dysków oprogramowanie służące do wielokrotnego zapisywania na nich losowych bitów, praktycznie uniemożliwiające odzyskanie oryginalnych danych lub czyniące je nieopłacalnym, w pamięciach SSD nie zda egzaminu. Zawierają one bowiem zapasowe kości pamięci, na których dokonuje się zapisu, gdy wyczerpana zostanie pula cykli zapisu w wykorzystywanych pierwotnie komórkach. Takie komórki zostają wyłączone z użytku przez kontroler, ale nadal istnieje możliwość odczytania z nich danych. W tej sytuacji zalecane jest skorzystanie z funkcji Secure Erase dostępnej w oprogramowaniu dołączonym przez producenta do dysku SSD. Wówczas trwałym kasowaniem informacji kieruje kontroler wbudowany w nośnik, a nie znajdujące się na komputerze oprogramowanie.

Użytkownicy powinni też pamiętać o w miarę regularnym usuwaniu danych z dysków przenośnych. Tego typu profilaktyka jest ważna szczególnie wtedy, gdy nośniki są często podłączane do publicznych komputerów. To czynność, która eliminuje ryzyko zapisania się na dysku złośliwego oprogramowania, w tym ransomware’u – podkreśla Dante Huang, Account Manager w firmie Transcend.

Nośniki, które wyszły z użycia, a użytkownik nie planuje ich odsprzedaży, oraz uszkodzone można także zniszczyć fizycznie. Do usuwania danych z twardych dysków i dyskietek większe firmy z reguły stosują demagnetyzery. Użytkownicy prywatni oraz mikrofirmy rzadko jednak mają tak wrażliwe dane. W ich przypadku wystarczy fizyczne zniszczenie nośnika, co w praktyce uniemożliwia odzyskanie z niego danych. Dyski mechaniczne należy przewiercić w kilku miejscach (tam gdzie znajdują się talerze), a nośniki półprzewodnikowe rozebrać i zniszczyć wszystkie kości pamięci.

 

Serwery NAS dla każdego

15 lat temu rozpoczęła się rewolucja, która wprowadziła pod strzechy macierze dyskowe. Mowa o małych serwerach Network Attached Storage, które zaczęły zyskiwać popularność równolegle z pojawiającymi się w domach sieciami. Z powodzeniem użytkowane są w gospodarstwach domowych i mikrofirmach, w których użytkownicy widzą korzyści z przechowywania plików na jednym urządzeniu. Do danych można mieć dostęp bezpośrednio ze stacji roboczych, a pliki multimedialne odtwarzać na telewizorach Smart TV lub wyposażonych w multimedialną przystawkę. Serwery NAS są też świetnym repozytorium kopii zapasowych ze stacji roboczych użytkowników.

W serwerach NAS można stosować zarówno nośniki mechaniczne, jak i półprzewodnikowe. Warto pamiętać jednak, że z dysków SSD nie będzie tak dużej korzyści, jaką przynosi ich instalacja bezpośrednio w komputerze. Wąskim gardłem jest bowiem sieć, znaczenie ma też fakt, że dostęp do plików zgromadzonych na serwerze i ich transfer ma charakter sekwencyjny, a nie losowy. Dlatego dyski SSD częściej pełnią rolę pamięci podręcznej cache, w której przechowywana jest kopia najczęściej odczytywanych danych. Dzięki temu unika się szybkiego zużycia kości pamięci flash w wyniku częstego ich zapisywania. W przyszłości jednak, gdy producenci nośników półprzewodnikowych stworzą dyski tanie, ale także niezawodne i trwałe, należy się spodziewać powszechniejszego ich stosowania w małych serwerach NAS. Sprawią bowiem, że krócej będą trwały takie procesy jak odtworzenie struktury RAID po wymianie uszkodzonego dysku, wykonanie kopii migawkowych i kontrola spójności bloków danych lub systemów plików.

Producenci małych NAS-ów dbają również, by ze zwykłych serwerów plików stały się wielofunkcyjnymi kombajnami, które zastąpią wiele innych rodzajów serwerów (backupu, poczty elektronicznej, stron WWW, multimediów, cyfrowego monitoringu itd.). W urządzenia te standardowo wbudowuje się też coraz więcej mechanizmów zapewniających bezpieczeństwo informacji – nie tylko narzędzia ochrony przed utratą danych, ale także przed skutkami ataków cyberprzestępców (przodują w tym QNAP, Synology i Netgear). Na długiej liście zastosowanego w macierzach dyskowych oprogramowania znajdują się m.in. skanery antywirusowe oraz narzędzia umożliwiające backup online do chmury.

Grzegorz Bielawski Country Manager, QNAP

Przeprowadzone przez nas eksperymenty dowiodły, że stosowany w serwerach NAS mechanizm wykonywania kopii migawkowych z powodzeniem może być wykorzystywany do odzyskiwania danych zaszyfrowanych przez ransomware. Wystarczy regularnie wykonywać kopie zapasowe plików z komputerów na serwer, w którym włączona jest funkcja migawek. Po zaobserwowaniu działania ransomware’u zarażony komputer oraz serwer NAS należy odłączyć od sieci, za pomocą oprogramowania antywirusowego usunąć z komputera złośliwy kod szyfrujący pliki, a następnie połączyć komputer z serwerem NAS i, korzystając z managera migawek, odzyskać wszystkie pliki.

 

Backup lokalny i w chmurze

Jedną z prawidłowości w branży IT jest to, że klienci dzielą się na tych, którzy backup robią, i na tych, którzy… będą robili. Przedstawiciele producentów i dystrybutorów zgodnie podkreślają, że prawie każdy nowy klient decyduje się na wdrożenie tej procedury w wyniku poniesionej straty danych. Większość użytkowników niestety liczy na łut szczęścia i nie chroni należycie swoich plików. Jest to tym dziwniejsze, że z badań jednoznacznie wynika, iż większość z nich zdaje sobie sprawę z konieczności wykonywania kopii backupowych. Nie ma też obecnie problemu z kupieniem taniej przestrzeni dyskowej (także jako usługi), istnieje również bezpłatne oprogramowanie, ale oczywiście tylko z podstawowymi funkcjami.

Zaskakuje również fakt, że resellerzy rzadko upatrują szansy na zarobek w sprzedaży i późniejszej obsłudze systemów kopii zapasowych. Oczywistym kontrargumentem ze strony klientów jest brak środków na projekty wykraczające poza ich podstawową działalność. Wystarczy jednak odrobina umiejętności szacowania potencjalnych strat biznesowych i wizerunkowych oraz obrazowego przedstawienia konsekwencji utraty danych. Należy uświadomić klientowi, że w przypadku pierwszej większej awarii owe straty mogą być znacznie wyższe niż koszt zakupu systemu, który im przeciwdziała. Skuteczność tego typu argumentacji jest spora, gdyż praktycznie każdy stracił kiedyś dane i z pewnością pamięta związane z tym rozgoryczenie. W przypadku użytkowników prywatnych powinno być równie łatwo – utrata zdjęć z wesela lub urodzin dziecka jest bezpowrotna, a ich odzyskanie w profesjonalnym laboratorium z reguły wiąże się z wydaniem czterocyfrowej kwoty.

 

Artur Cyganek dyrektor polskiego oddziału, Acronis

Resellerzy, którzy mają mniejszą wiedzę o systemach backupu, mogą liczyć na pomoc producentów i dystrybutorów. Właściwie wszyscy oferują udział w programach partnerskich, zapewniają pomoc konsultantów i inżynierów, a także działu wsparcia technicznego przeznaczonego wyłącznie dla firm z kanału dystrybucyjnego. Wybierając dostawcę oprogramowania do backupu, warto także sprawdzić, czy zapewnia rozbudowaną dokumentację produktową ułatwiającą wdrożenie oraz testowe wersje oprogramowania i wsparcie marketingowe.

 

Zdecydowanie łatwiej zaprojektować i zbudować system backupu dla małych firm i użytkowników indywidualnych niż dla większych przedsiębiorstw. Wiąże się to przede wszystkim z niewielką, jak na dzisiejsze czasy, ilością wymagających ochrony danych. Do stworzenia bezpiecznego środowiska można wykorzystać serwer NAS z nośnikami połączonymi w strukturę RAID i dołączonym przez USB zewnętrznym twardym dyskiem o dużej pojemności na dodatkową kopię najważniejszych danych. Na taki serwer powinny trafiać kopie plików z firmowych lub domowych komputerów. Warto także rozważyć wykorzystanie zapasowego serwera NAS w celu wykonywania na niego replikacji danych. Użytkownicy indywidualni mogą ją prowadzić przez internet na kompatybilne, współpracujące ze źródłowym urządzenie, zainstalowane u kogoś z rodziny, nawet w innym mieście. W przypadku firm serwer zapasowy można zainstalować w innym oddziale lub firmie świadczącej usługi kolokacji.

Bardzo ważne jest również odpowiednie zabezpieczanie danych na laptopach. Kopia plików na serwer NAS nie jest wykonywana, jeśli użytkownik znajduje się poza domem lub siedzibą firmy. Dla takich osób warto wykupić biznesową wersję usługi backupu online, a także doradzić im wykonywanie regularnych kopii, np. na kartę SD włożoną do wbudowanego w laptop gniazda.

Przede wszystkim jednak resellerzy powinni aktywnie interesować się rynkową ofertą, bo zmienia się ona bardzo szybko. W serwerach NAS pojawiają się nowe funkcje, przybywa bezpłatnych narzędzi do backupu. Producenci oprogramowania wprowadzają do sprzedaży aplikacje służące do zabezpieczania i archiwizacji wybranego rodzaju danych, chociażby poczty elektronicznej. Dzięki tym działaniom możliwości w zakresie zabezpieczania danych klientów stają się praktycznie nieograniczone.