Wiele technologii staje się popularnych w Polsce z pewnym opóźnieniem, co z jednej strony można uznać za wadę i brak odwagi osób odpowiedzialnych za IT na polskim rynku, a z drugiej za zaletę – nie inwestujemy w niepewne, niesprawdzone technologie, czekamy na opinie i uwagi pierwszych użytkowników oraz reakcję producentów tych rozwiązań.

Ten trend widać szczególnie na rynku pamięci masowych. Przykładem jest deduplikacja, czyli proces analizy danych i eliminowania duplikatów, głównie w celu oszczędności miejsca. Chociaż na świecie takie rozwiązania pojawiły się już w połowie ubiegłej dekady, to w Polsce ich aktywna sprzedaż trwa dopiero od paru lat. Deduplikacja jest najbardziej efektywna przy backupie danych, jej skuteczność sięga wtedy ponad 90 proc. Wzrostowi jej popularności w Polsce pomogło pojawienie się tanich macierzy dyskowych, na które mogą sobie pozwolić także małe i średnie firmy. Deduplikacja w połączeniu z niską ceną za jeden gigabajt pozwalają na przechowywanie backupu na dostępnych online dyskach, a niekoniecznie wyłącznie na taśmie. Dzięki eliminacji duplikatów łatwiej można też wykonywać kopię zapasową danych (replikację) na urządzenie znajdujące się w innym budynku (przez sieć lokalną) lub nawet w innym mieście (przez Internet lub dzierżawione łącze).

 

Walka o rynek top-SMB

Nietrudno zauważyć, że od paru lat praktycznie wszyscy dostawcy macierzy dyskowych rozpoczęli walkę o rynek firm średnich i trochę mniejszych (50–200 stanowisk komputerowych). Efektem jest wysyp macierzy dyskowych do montażu w szafie przemysłowej mieszczących 12–15 napędów. Takie urządzenia do oferty wprowadzili najwięksi dostawcy (Dell, EMC, Fujitsu, Hitachi Data Systems, HP, IBM, Oracle), jak też ci, których oferta do niedawna koncentrowała się na rynku odbiorców prywatnych, SOHO i małych firm (D-Link, Iomega, Netgear, QNAP, Synology, Thecus).

Przy dostępnych dziś dyskach Serial ATA o pojemności 4 TB takie macierze dają możliwość udostępnienia w firmowej sieci nawet 48 TB przestrzeni, co jest limitem naprawdę trudnym do osiągnięcia przez większość firm (a tę pojemność często można rozbudować poprzez dołożenie kolejnych półek dyskowych). Pozostaje kwestia wydajności – do pracy jako tradycyjny serwer plików czy repozytorium mniejszej bazy danych takie macierze nadają się idealnie. Bez problemu obsłużą też kilka lub kilkanaście wirtualnych serwerów (co też jest liczbą wystarczającą dla większości małych i średnich firm), jednak próba uruchomienia większej liczby wirtualnych maszyn może już poskutkować znacznym spadkiem wydajności.

 

Ewelina Kurzeja

 

Product Manager EMC, S4E

Często zdarza się, że użytkownicy w mniejszych firmach do przechowywania wszystkich danych kupują najtańsze na rynku macierze, z niecertyfikowanymi dyskami i bez gwarantowanego pełnego wsparcia. Później szybko żałują, bo wydajność takich urządzeń, szczególnie przy obsłudze środowiska wirtualnego, okazuje się niewystarczająca, a awaryjność – dość duża. Tymczasem wystarczy przemyślana decyzja na początku inwestycji, aby zyskać gwarancję bezpieczeństwa danych w rozsądnej cenie.

 

Użytkownicy takich macierzy powinni być zadowoleni z coraz większej liczby wprowadzanych do nich funkcji (szczególnie w ofercie tych firm, które wyrosły z rynku małych rozwiązań). Realizowana jest koncepcja All-in-One, dzięki czemu takie macierze oferują już nie tylko możliwość przechowywania i udostępniania danych w postaci plików i bloków (protokoły NFS/iSCSI), ale też mogą służyć jako cyfrowe rejestratory systemów monitoringu wideo, serwery poczty elektronicznej i stron internetowych (włącznie z możliwością uruchomienia systemu zarządzania treścią na stronie), serwery drukarek, autentykacyjne itd. Producenci uruchamiają też „sklepy” z aplikacjami, które można zainstalować na macierzy, dostosowując ich funkcjonalność do potrzeb firmy.

 

Nie będzie backupu?

Rosnąca wykładniczo ilość danych powoduje, że przed nami rewolucja w obszarze zarządzania przechowywaniem i zabezpieczaniem danych. Hubert Yoshida, wizjoner branży pamięci masowych i wiceprezes Hitachi Data Systems, już rok temu prognozował, że lada chwila kłopoty zacznie sprawiać zwykły backup. Jego zdaniem danych do zabezpieczenia jest zbyt dużo, a okna backupowe kurczą się albo całkowicie znikają. Wszystko więc wskazuje na to, że w przyszłości nie będziemy w stanie wykonywać backupu – ani lokalnego, ani tym bardziej zdalnego do oddalonego centrum danych. Dane zaś będą zabezpieczane w czasie rzeczywistym poprzez replikację, a nieprzerwany dostęp do nich będą zapewniały profesjonalne rozwiązania połączone w klastry, gwarantujące ciągłą pracę nawet w wypadku wystąpienia zdarzeń losowych.

Dziś praktycznie wszystkie systemy backupu umożliwiają przechowywanie poprzednich wersji plików, ale wkrótce ta funkcjonalność ma pojawić się też w zwykłych serwerach plików, co ostatecznie ma wyeliminować konieczność sporządzania backupu. Będzie za to potrzeba umiejętnego oddzielenia danych od aplikacji. Dane, szczególnie archiwalne, nie będą ulegały zmianom –  musi być zapewniona możliwość ich odczytania nawet po wielu latach. Natomiast aplikacje będą się zmieniały i coraz częściej będą dostarczane w postaci wirtualnej (w chmurze prywatnej lub publicznej).

Do tej opinii z pewnym dystansem podchodzi Ewelina Kurzeja, Product Manager EMC w firmie dystrybucyjnej S4E.

Z backupem na pewno szybko się nie pożegnamy – wciąż prowadzimy bardzo dużo takich projektów, a każdy z nich jest zakończony wdrożeniem. To zazwyczaj inwestycja na kilka lat, przy planowanym rozwoju środowiska i skalowalności zaproponowanego rozwiązania. Natomiast faktycznie koncepcja backupu ewoluuje, obserwujemy masowe przechodzenie na backup dyskowy, ponieważ klienci chcą przede wszystkim skrócić czas odtworzenia danych. Realnym zagrożeniem dla backupu, szczególnie w małych firmach, może być backup online – twierdzi.

 

Krzysztof Celmer

 

dyrektor polskiego oddziału NetApp

Dzisiaj wiele nawet dość małych firm zbiera różnego rodzaju dane, z których – po odpowiedniej analizie – mogłyby zrobić użytek biznesowy i przekuć wnioski na zyski. Dane te ułatwiają przeanalizowanie, czy klienta można obsłużyć efektywniej lub wprowadzić w firmie dodatkowe oszczędności. Branża dostawców serwerów i pamięci masowych jest już na to gotowa – dostępnych jest wiele ciekawych, bardzo wydajnych i niedrogich rozwiązań, z których może skorzystać nawet bardzo mała firma.

 

Czy opisana sytuacja oznacza rychły koniec systemów backupu na taśmy? Jako ich podstawowe zalety były wskazywane niski koszt przechowywania danych i możliwość wywiezienia nośników z firmy. Korzyści płynące z obu tych zalet nie są już tak duże – przyczyniły się do tego możliwość prowadzenia deduplikacji, coraz tańsze dyski oraz replikacja za pośrednictwem szybkich łączy internetowych. Dostawcy rozwiązań taśmowych jednak nadal się bronią. Słusznie wskazują, że tego typu systemy wciąż świetnie sprawdzają się tam, gdzie zachodzi potrzeba archiwizowania dużych ilości informacji i przechowywania przez długi czas. Konieczne jest oczywiście przegranie danych na nośnik w nowszym standardzie średnio co 7–10 lat i zapewnienie logicznej kompatybilności wstecznej. Naturalne też jest, że z tego modelu archiwizacji korzystać będą głównie największe przedsiębiorstwa, można więc założyć, że w małych i średnich firmach koniec zastosowania taśm jest bliski.

 

Backup do chmury

Dużo emocji w ostatnich latach wywołała koncepcja backupu online. Zaczęło się od tradycyjnych obaw związanych z bezpieczeństwem (czy u usługodawcy siedzi administrator i przegląda sobie moje dane?) po kwestie rzeczywistej gwarancji dostępności danych przechowywanych w zewnętrznej firmie.

Emocje już opadły na tyle, że coraz więcej firm rozważa ten pomysł. Oczywiście, różne są sposoby na jego implementację, jak i różne potrzeby firm. Podstawowy podział jest wytyczany przez źródło danych do zabezpieczenia – może być nim firmowy serwer, jak też stacje robocze użytkowników. W obu przypadkach jednak usługa backupu online musi być znacznie bardziej zaawansowana niż jej odpowiednik do backupu pojedynczej stacji roboczej – musi zawierać konsolę administracyjną zapewniającą wdrożenie polityk wykonywania kopii i zarządzania nimi. Niezmiernie ważna jest też możliwość zaszyfrowania zabezpieczanych danych własnym kluczem. Przy backupie stacji roboczych należy też sprawdzić, czy istnieje możliwość wykonywania kopii zarówno samych danych, jak też całego systemu operacyjnego, co przyspieszy proces ewentualnego późniejszego ich odzyskania. Pracownicy powinni też mieć możliwość uzyskania samodzielnego dostępu do utraconych plików (lub ich wcześniejszych wersji), bez konieczności kontaktowania się z informatykami.

Systemów backupu online są już dziesiątki tysięcy. Jak wybrać ten właściwy? Przede wszystkim kierując się funkcjonalnością i możliwością zaspokojenia potrzeb firm, reputacją dostawcy i wymogami prawa. W większości przypadków backupowane dane będą zawierały jakieś dane osobowe, a te – zgodnie z ustawą o ochronie danych osobowych – nie powinny opuszczać Unii Europejskiej. Z tego powodu zawsze należy sprawdzić, gdzie fizycznie znajduje się centrum danych, w którym wylądują nasze dane. O ile trudno zdobyć taką informację dla usługi prywatnego backupu online, o tyle przy usłudze dla firm jest ona podawana bez problemu.

O usługi backupu online rozszerzają ofertę dostawcy sprzętu. EMC jest właścicielem usługi Mozy, jednej z najbardziej popularnych w tym segmencie. Z kolei specjalizująca się w backupie korporacyjnym firma Evault, należąca do Seagate’a, wskazuje na korzystne ceny swoich usług dzięki możliwości preferencyjnego nabywania nośników. Swoją usługę ma też Symantec, jeden z liderów rynku oprogramowania do backupu i zarządzania danymi.

Pojawiają się też ciekawe pomysły usługodawców, którzy chcą się wyróżnić w obszarze backupu online. Symform proponuje usługę rozproszonego backupu na pamięciach masowych… innych użytkowników usługi. Pojemność większą niż 10 GB możemy kupić lub dostać za darmo pod warunkiem przeznaczenia części własnej przestrzeni na dane innych użytkowników. Serwery Symform tak zarządzają przepływem danych, aby awaria pamięci masowych jednego z dostawców lub ich zwyczajne odłączenie od Internetu nie spowodowały utraty danych. Oczywiście wszystkie dane są też szyfrowane.

 

Jarosław Raćkowicz

 

Channel Manager, Hitachi Data Systems

Hitachi od zawsze w Polsce prowadzi sprzedaż przez kanał partnerski, także małym i średnim firmom. Poszukujemy nowych partnerów, którzy dobrze czują się w tym segmencie rynkowym. Oczekujemy od nich, że będą dla swoich klientów partnerami merytorycznymi – nie ograniczą się tylko do sprzedaży i wdrożenia sprzętu, ale również pokażą, jak zoptymalizować obecne zasoby pamięci masowych i doprowadzić do zmniejszenia kosztów TCO. W zamian mogą liczyć na rozwój kompetencji i odpowiednio wysoką marżę.

 
Pamięci też można wirtualizować

W firmach, gdzie danych jest dużo, a ich ilość niebezpiecznie rośnie, zachodzi konieczność wprowadzenia narzędzia automatyzującego zarządzanie nimi. Zresztą tam, gdzie jest dużo danych, pojawia się też potrzeba zapewnienia ich wysokiej dostępności, nawet podczas prac serwisowych. Odpowiedzią na te wyzwania jest wirtualizacja maksymalnie dużej ilości zasobów w centrum danych. Jej główną zaletą jest umożliwienie rozbudowy infrastruktury IT bez konieczności wyłączania działającej na niej usługi (co w wielu systemach o kluczowym znaczeniu można porównać do wymiany uszkodzonego silnika w lecącym samolocie).

O ile z wirtualizacją serwerów (i częściowo desktopów) wielu administratorów IT już się oswoiło, o tyle wirtualizacja pamięci masowych wciąż czeka na zdobycie należnej jej popularności. Przy szybko rosnącej ilości danych macierze dyskowe cały czas trzeba wymieniać na szybsze i coraz bardziej pojemne – proces ten odbywa się dziś średnio co trzy lata. Dzięki wirtualizacji możemy dołączyć do systemu kolejną macierz i powoli przenieść na nią dane, nie tracąc do nich dostępu. Gdy wszystko będzie w porządku, można wyłączyć i wyeliminować stare urządzenie.

W dużych środowiskach wymagających zwirtualizowania macierzy dyskowych stosuje się sprzętowe wirtualizatory, dostępne w ofercie EMC, Hitachi Data Systems i IBM. Dla MSP taka inwestycja będzie jednak zbyt droga i po prostu niepotrzebna. W sprzedaży dostępne są alternatywne rozwiązania programowe – do niedawna oferowała je firma Virsto (parę miesięcy temu została kupiona przez VMware’a i jej produkty zostaną włączone do oferty tego producenta), a na polskim rynku najpopularniejszym dostawcą tego typu rozwiązań jest DataCore Software.

 

Idzie nowe

Na rynku pamięci masowych coraz częściej można spotkać nowe firmy, które próbują zmieniać zastane modele przechowywania i zabezpieczania danych oraz wyszukać dla siebie dobrą do zagospodarowania niszę. W efekcie otrzymujemy ciekawe rozwiązania, które są przystosowane do pracy z konkretnymi rodzajami danych.

Nimble Storage stworzył macierze dyskowe gotowe do przeprowadzania ciągłego backupu głównie wirtualnych środowisk i baz danych na dyski SSD. Oprogramowanie macierzy oparto na architekturze CASL (Cache Accelerated Sequential Layout), która zapewnia kompresję danych w czasie rzeczywistym, inteligentne indeksowanie danych oraz możliwość szybkiej replikacji danych z macierzy poprzez sieć WAN.

Kolejną godną zainteresowania ofertę ma firma Tintri, która stworzyła macierze dyskowe przeznaczone wyłącznie do współpracy z wirtualnymi maszynami. Zostało opracowane specjalne oprogramowanie gotowe do pracy z głównymi wirtualizatorami i wirtualnymi dyskami. Umożliwia ono monitorowanie środowiska wirtualnych maszyn, ale też dostosowuje strumień danych do aktualnych potrzeb wydajnościowych środowiska wirtualnego, bez konieczności używania pośredniego oprogramowania zarządzającego fizyczną i wirtualną infrastrukturą.

Budując środowisko wirtualne, warto zadbać o szybki dostęp do wirtualnych maszyn z urządzeń uzyskujących połączenie przez Internet. Pomogą obecne na polskim rynku już od kilku lat rozwiązania do przyspieszenia transmisji danych w sieciach rozległych. Ich głównym zadaniem jest optymalizacja dostępu do centralnych zasobów i aplikacji, wykorzystujących w swym działaniu przede wszystkim protokół TCP, ale także systemy plików (CIFS i NFS), dostęp web (HTTP, HTTPS), komunikację pocztową (Microsoft Exchange, Lotus Notes), transfer plików (FTP), zdalny dostęp (Citrix ICA, RDP) itd. Największą ofertę akceleratorów ma Riverbed (lider tego rynku), ale takie rozwiązania można też znaleźć w ofercie firm BlueCoat, Cisco Systems, Citrix i Juniper Networks.

 

Robert Grzyb

 

National Key Account Manager, Iomega NAS Division, Lenovo

Klienci bardzo cenią możliwość  replikacji danych przez Internet do innych lokalizacji, bez konieczności wdrażania jakiejkolwiek dodatkowej infrastruktury. W ten sposób małe i średnie firmy mogą tworzyć własne standardy disaster recovery, systemów dystrybucji danych z centrali do oddziałów (lub na odwrót) oraz zarządzania archiwizacją danych nie tylko na poziomie lokalnego data center, ale globalnie – na poziomie całej firmy.

 

Firmom integratorskim zainteresowanym rozszerzeniem oferty w zakresie pamięci masowych i ochrony danych zdecydowanie można polecić poszukiwanie ciekawych niszowych rozwiązań. Większość nowych w tym obszarze przedsiębiorstw jest zainteresowanych podjęciem współpracy z nowymi partnerami, w tym na rynku Europy Środkowo-Wschodniej. To szansa na wyróżnienie się swoją ofertą i zdobycie możliwości wdrożenia tam, gdzie wiele innych firm nie dało rady.

Wybrani producenci pamięci masowych i ich dystrybutorzy na polskim rynku

 

SPRZĘT

Adaptec: Action, Alstor

D-Link: AB, ABC Data, Action, S4E, Tech Data, Veracomp

Embedos: Passus

EMC: Arrow ECS, S4E

Emulex: Avnet, EPA Systemy

Exagrid: Zycko

Fujitsu Technology Solutions: AB, ABC Data, Tech Data, Veracomp

Hitachi Data Systems: Avnet

HGST: Asbis, Avnet, Tech Data

HP: AB, ABC Data, Tech Data, Veracomp

IBM: Arrow ECS, Avnet, RRC, Tech Data

Imation: Action, Alstor, Diskus, Veracomp

Infortrend: Alstor, Asbis, EPA Systemy, Veracomp

LenovoEMC/Iomega: AB, S4E, Tech Data, Veracomp

LSI: Alstor, Asbis, Avnet

NetApp: Arrow ECS

Netgear: AB, ABC Data, Action, Tech Data, Veracomp

Oracle/Sun: Arrow ECS

Overland Storage: Alstor, Zycko

Promise: Alstor, Asbis, Format

Qlogic: Asbis, Avnet, Veracomp

QNAP: EPA Systemy, Konsorcjum FEN, Veracomp

Quantum: S4E, Veracomp

Radware: Clico, Veracomp

Seagate: AB, ABC Data, Asbis, Avnet, GDS Distribution, Incom

Sepaton: S4E

Synology: AB, EPA Systemy, Veracomp

Tandberg Data: ABC Data, Action, Alstor, Veracomp

Thecus: AB, EET, EPA Systemy

Toshiba (dyski): AB, ABC Data, Action, Alstor, Asbis, Avnet

WD: ABC Data, Action, Incom, Tech Data

Zenith ARCA: S4E

ZyXEL: AB, Action, eD’ System, RRC

 

OPROGRAMOWANIE

Acronis: Clico

Arkeia: Dagma

Asigra: Zycko

Atempo: S4E

CA: Alstor, Veracomp

CommVault: Alstor, Avnet

DataCore Software: Avnet, Connect Distribution

EMC: Arrow ECS, S4E

FalconStor: Avnet, S4E, Zycko

HP: AB, ABC Data, Tech Data, Veracomp

IBM: Arrow ECS, Avnet, RRC, Tech Data

NetApp: Arrow ECS

Symantec: AB, ABC Data, Arrow ECS, Tech Data, Veracomp

Veeam: Avnet, Veracomp