Analitycy nie mają dobrych prognoz dla sprzedawców pamięci masowych. Ich zdaniem rynek infrastruktury IT osiągnął punkt krytyczny. IDC przewiduje, że środowiska chmurowe będą miały coraz większy udział w wydatkach, a nakłady na tradycyjne IT będą topnieć. Według wyliczeń badającej światowy rynek firmy już od 2019 r. istniała dominacja chmurowych środowisk IT nad tradycyjnymi w przypadku serwerów i przełączników, ale większość pamięci masowej dostarczanej na rynek wciąż trafiała do tradycyjnych instalacji. Jednak ten stan rzeczy ma zmienić się wraz ze zwiększonymi inwestycjami dostawców chmur publicznych w storage. Taki ma być trend globalny, ale czy na polskim rynku – kierującym się swoimi prawami – widać już wpływ rosnącej migracji do chmury publicznej na sprzedaż i sposób wdrażania pamięci masowych?

– Potrzeby IT są tak duże, że nawet zakładając pewien stopień migracji do chmury publicznej nadal widzimy wzrost zapotrzebowania na rozwiązania on-premise. Spotykamy się nawet z tak zwaną repatriacją, czyli powrotem z chmury publicznej. Ukryte koszty, nieprzewidywalne rachunki i równie nieprzewidywalne SLA, często na zasadzie „best effort”, zniechęcają klientów biznesowych do korzystania z niej, szczególnie w przypadku krytycznych i strategicznych systemów – podkreśla Rafał Przedborski, Senior Systems Engineer w Dell Technologies.

Także Łukasz Milic, Business Development Representative w QNAP Systems, nie widzi niepokojącego dla producentów sprzętu trendu, chociaż przyznaje, że chmura publiczna jest coraz popularniejsza – daje wiele możliwości i po prostu kusi klientów. Nie jest jednak rozwiązaniem uniwersalnym, chociaż za takie uchodzi. Pomimo licznych zalet, ma też dwie znaczące wady. Po pierwsze, w bardziej zaawansowanych zastosowaniach jest droga. Po drugie, nie jest „na miejscu”, a nie każda firma może sobie pozwolić na przerzucenie swoich systemów i środowiska pracy na zdalne zasoby, gdzie ograniczeniem będzie chociażby szybkość łącza. Usługa subskrypcyjna, czyli jedna z jej zalet, może być także wadą. Im więcej potrzeba usług, im więcej zasobów jest zużywanych, tym bardziej znacząco rosną koszty.

– To wszystko nie będzie problemem, jeśli jesteśmy klientem w rodzaju Netflixa. Jednak nie dla typowych polskich firm, z których większość to MŚP. Dlatego atrakcyjne są dla nich urządzenia typu NAS, które w ramach jednorazowego kosztu pozwalają osiągnąć wiele funkcji bez dodatkowych opłat. Oczywiście nic nie stoi na przeszkodzie, aby oba środowiska łączyć, co sami umożliwiamy. Klient może używać chmury do backupu danych z NAS, albo NAS jako bramę dostępu do chmury, plikowo lub blokowo – tłumaczy Łukasz Milic.

Jak z kolei twierdzi Marcin Lisowski, Key Account Manager Poland w Synology, producent ten odnotował w 2021 r. bardzo duży wzrost sprzedaży serwerów NAS względem poprzedniego roku, co ma dowodzić, że rozwiązania on-premise są niezmiennie potrzebne i chętnie wybierane. Ponieważ chmura publiczna nie jest uniwersalna, to coraz popularniejsze są wdrożenia hybrydowe/brzegowe.

– W tej roli serwery NAS all-in-one radzą sobie bardzo dobrze i są efektywniejsze kosztowo od rozwiązań A-brandowych. Jako producent jesteśmy także przygotowani na moment, kiedy chmura publiczna stanie się chętniej wybieranym rozwiązaniem. Oferujemy bowiem oraz rozwijamy usługi w ramach własnej platformy chmurowej – mówi Marcin Lisowski.

Chmura zmienia oczekiwania klientów

Z punktu widzenia integratora, takiego jak poznańskie Vernity, wraz ze spadkiem cen sprzętu w ostatnich latach zapotrzebowanie na pamięć masową wdrażaną lokalnie nie maleje, a rośnie. Obecnie na rynku dostępne są wydajne urządzenia w bardzo przystępnej cenie. Storage on-premise zapewnia przedsiębiorstwom dużą wydajność i – co ważne – bardzo małe opóźnienia. Pracownicy nie czekają na dane, pracując efektywnie i bez stresu.

– Rozwiązania chmurowe natomiast często już w ciągu 2–3 lat okazują się droższymi. Liczone w perspektywie krótkoterminowej oszczędności z chmury znikają, jeśli nie uzyskuje się poziomu wydajności lokalnej pamięci masowej. Dodatkowo klienci skarżą się na kosztową nieprzewidywalność chmury. Przykładowo zgłaszają nam, że generowanie raportów spowodowało u nich gwałtowny wzrost wydatków – twierdzi Dariusz Michałek, inżynier systemowy w Vernity.

Niemniej, nawet jeśli chmura publiczna okazuje się droga i nie odpowiada na wszystkie potrzeby klientów, to coraz częściej będą oni oczekiwać od instalowanej lokalnie infrastruktury podobnej elastyczności, skalowalności czy szybkości wdrażania. Dostawcy infrastruktury próbują się ze swoją ofertą do takich oczekiwań dostosować. Wśród nich jest HPE, którego CEO, Antonio Neri, jakiś czas temu zauważył, że chmura „to nie jest miejsce docelowe, ale doświadczenie”. W rezultacie strategia tej firmy zmierza do stworzenia ekosystemu rozwiązań (którego częścią są pamięci masowe), zapewniające doświadczenie chmury niezależnie od tego, gdzie fizycznie znajdują się systemy.

– Niewątpliwie pojawił się trend, by wszystko działało „jak w chmurze”. Klienci, niezależnie od miejsca przetwarzania danych, chcą mieć elastyczność chmury publicznej z zarządzaniem z dowolnego miejsca i możliwością tworzenia usług jak w chmurze – uważa Maciej Kalisiak, Country Innovation Lead w HPE.

Jeśli więc klienci chcą chmurowych doświadczeń i rośnie ich zainteresowanie chmurą publiczną, to integratorzy muszą to uwzględniać w swoich ofertach i nauczyć się łączyć chmurę z lokalnie dostarczaną infrastrukturą.

– Oferujemy naszym klientom takie usługi równocześnie z rozwiązaniami sprzętowymi, traktując to jako uzupełnienie systemu klasycznych pamięci masowych. Naszym zdaniem wykorzystanie chmury publicznej niesie za sobą wiele korzyści i stanowi doskonałe rozwinięcie dobrze zaplanowanej infrastruktury, ale tylko w połączeniu z lokalnym magazynem danych klient otrzymuje kompletny produkt – zastrzega Sebastian Salamon, starszy specjalista ds. rozwiązań serwerowych w AT Computers.

Zdaniem specjalisty

Łukasz Milic, Business Development Representative, QNAP Systems Łukasz Milic, Business Development Representative, QNAP Systems  

Dla integratora najpopularniejszym mariażem urządzeń pamięci masowej i oprogramowania jest system do backupu, dzięki czemu klient otrzymuje rozwiązanie typu appliance. Kolejnym przykładem są systemy monitoringu wizyjnego czy wirtualizacji. Wydajne NAS-y mogą być wykorzystywane z powodzeniem jako serwer wirtualizacji dla małej firmy, który dodatkowo nie wymaga licencji. Podobnym przykładem są bazy danych. Wielu integratorów korzysta z mechanizmu konteneryzacji, aby w ten sposób uruchomić bazy danych dla klienta, które nie będą znacząco obciążające dla samego urządzenia. Warto też podkreślić, że wirtualizacja i kontenery otwierają przed integratorami ogromne możliwości, ponieważ nie są oni ograniczeni do środowiska samego systemu NAS, ale mogą uruchomić niezależne systemy pasujące do konkretnych zastosowań.

  
Maciej Kalisiak, Country Innovation Lead, HPE Maciej Kalisiak, Country Innovation Lead, HPE  

Wybór ekonomicznej w zakupie i eksploatacji technologii pamięci masowej sprowadza się do dobrego zweryfikowania i określenia potrzeb. Kluczem są rozwiązania wspierające ochronę inwestycji, takie jak wymiana kontrolerów na nową generację czy specjalne programy umożliwiające ochronę inwestycji. Ważne są również przewidywalne koszty wsparcia oraz aktualizacja systemów, a także sposób pozyskania technologii. Ten drugi element jest niezwykle istotny, gdyż doświadczenia pokazują, że zazwyczaj zakup infrastruktury w modelu CAPEX jest przeszacowany i przepłacamy za coś, czego nie używamy. Ta sama infrastruktura pozyskana w modelu usługowym pozwala na znacznie większą elastyczność i lepsze dopasowanie systemu do aktualnych potrzeb.

  
Marcin Lisowski, Key Account Manager Poland, Synology Marcin Lisowski, Key Account Manager Poland, Synology  

Producent, który może dostarczyć wszystkie elementy rozwiązania pamięci masowej – serwer, dyski i aplikacje – jest w stanie zapewnić większą kontrolę nad stabilnością, kompatybilnością i niezawodnością całego systemu. Co więcej, jeśli z jego działaniem jest jakiś problem, to znacznie skraca się droga do jego rozwiązania, ponieważ wsparcie techniczne jest realizowane w jednym miejscu. Jeśli producent w ramach serwera dostarcza także aplikacje, dzięki którym bez dodatkowych kosztów można kompleksowo zabezpieczyć środowisko IT, to mamy wtedy również rozwiązane kwestie ekonomiczności systemu. Inwestując raz w takie rozwiązanie, klient nie musi w kolejnych latach martwić się o dodatkowe koszty związane z subskrypcją.

  

Wydajne jak pamięci NVMe

Dostarczający i wdrażający pamięci masowe integrator musi wziąć pod uwagę to, że dla danego klienta kluczową sprawą może się okazać jak największa wydajność systemu pamięci masowej. Bardzo ważne może być także zapewnienie jego największej niezawodności. Będą też tacy klienci, dla których szczególnie liczyć się będzie uzyskanie maksymalnej pojemności. W każdym z tych przypadków istotne będzie stworzenie systemu, który będzie ekonomiczny w zakupie i eksploatacji. Także z punktu widzenia ochrony inwestycji (poprzez unikanie przestarzałych technologii, łatwe możliwości zarządzania, rozbudowy itp.).

Ostatecznie, głównym kryterium doboru pamięci masowej jest jej przeznaczenie. Inne wymagania stawiane są w przypadku systemu, który będzie wykorzystywany na potrzeby wirtualizacji, na potrzeby pamięci do backupu, a jeszcze inne w przypadku kilku różnych zastosowań.

– Decydując się na urządzenie pamięci masowej należy wykonać analizę obejmującą przeznaczenie, podstawowe i dodatkowe, jeśli takie będzie, co pozwoli określić przede wszystkim rodzaj wymaganych dysków – HDD, SSD albo hybryda łącząca oba te typy. Przy czym dyski to nie wszystko, istotne są też pamięć RAM urządzenia, jak i procesor, szczególnie przy udostępnianiu przestrzeni blokowo. Ważna będzie też sieć, bo co nam po szybkich dyskach NVMe PCIe, jeśli korzystamy z sieci 1GbE? – pyta Łukasz Milic.

Wydajność systemu pamięci masowej to szerokie pojęcie i może obejmować wiele zagadnień, w tym czas odpowiedzi, przepustowość, liczbę operacji na sekundę itp. Dlatego, jak podkreśla Maciej Kalisiak, klienci przede wszystkim powinni określić, co jest dla nich ważne i wtedy decydować się na wybór odpowiedniej technologii. Jeśli najbardziej zależy im na wydajności, to wśród trendów rynkowych polegających na dostarczaniu tej największej na pierwszy plan wysuwają się rozwiązania typu All-NVMe.

– Protokół NVMe ustawił poprzeczkę bardzo wysoko. Jeżeli nie chcemy, aby to kontrolery pamięci masowych stały się wąskim gardłem, musimy zapewnić im dużą moc obliczeniową. Fizyki nie oszukamy. Wydajna pamięć masowa potrzebuje szybkich procesorów i pamięci cache/NVRAM – mówi Rafał Przedborski.

Storage ma być pojemny i niezawodny

Maksymalna pojemność będzie różniła się w zależności od potrzeb organizacji – dla jednych może wynosić 100 TB danych, dla innych 100 PB. Już w pojedynczych urządzeniach można łączyć dużą liczbę dysków twardych, na przykład tak pojemnych jak HDD 18 TB czy niedawno zaprezentowane HDD 20 TB. Jeśli to nie wystarcza, jest możliwość korzystania z jednostek rozszerzających.

– Jednak pogoń za przestrzenią nie może przysłonić kwestii bezpieczeństwa. Nawet stosując zaawansowane systemy plików w rodzaju ZFS należy pamiętać, że awaria dysku powoduje odbudowę całej grupy – ostrzega Łukasz Milic.

Im więcej jest dysków i im są one większe, tym taka odbudowa będzie trwała dłużej, a to z kolei spowoduje wzrost ryzyka uszkodzenia kolejnego dysku. Dlatego niezbędne jest rozsądne planowanie wymaganej przestrzeni w przełożeniu nie tylko na zapewniające redundancję grupy RAID, ale także na czas ewentualnej odbudowy.

Poszukującym jak najbardziej efektywnego wykorzystania pojemności Rafał Przedborski proponuje rozwiązania, które deduplikują i kompresują dane „w locie”. Najnowsze macierze cechują się wysokim poziomem redukcji danych, ponieważ wykorzystywane w nich algorytmy są odpowiednio dobrane do obecnych typów obciążeń.

Z kolei jeśli chodzi o niezawodność systemu, to zależy ona od odporności na awarie poszczególnych jego elementów. Niestety, nie ma podzespołów, które nigdy się nie psują, czego należy być świadomym projektując system przestrzeni dyskowej. Podstawą będą wysokie poziomy RAID, jak RAID 10, RAID 50 lub RAID 60. Do tego redundancja zasilania i połączeń sieciowych. Jeśli to za mało, można wybrać urządzenia dwukontrolerowe, które mają powielone wszystkie pozostałe podzespoły, jak procesory, RAM, karty sieciowe czy nawet moduły podtrzymania bateryjnego dla cache zapisu.

– Oczywiście takie możliwości wiążą się z wyższymi cenami pamięci masowej. Jednak ostatecznie co nam po najdroższym urządzeniu, jeśli jest tak samo zależne od zasilania, chłodzenia czy ogólnie bezpieczeństwa fizycznego serwerowni, jak inne urządzenia. Dlatego kolejnym poziomem bezpieczeństwa i niezawodności będą backup i replikacja pozwalająca utrzymać działanie systemów, nawet w przypadku większych awarii – mówi Łukasz Milic.

Kupić, a może wynająć w formie usługi?

Projektując pamięci masowe pod kątem różnego typu klientów, dostawcy starają się zapewniać im jak największe możliwości ich rozbudowy. Istotna jest możliwość skalowania, która pozwala klientom dobrać urządzenie do bieżących wymagań z zachowaniem możliwości przyszłego rozwoju. Dlatego wybierając rozwiązanie „na już”, warto pomyśleć o wymaganiach, które mogą pojawić się już za pół roku. I zdecydować się na zakup sprzętu lub wybrać nowe modele oparte na konsumpcji i subskrypcji. Jakie preferencje mają polscy klienci, jeśli chodzi o finansowanie wdrożeń? Czy wciąż wybierają CAPEX, mniej zwracając uwagę na OPEX?

– To zależy od branży. Niektóre organizacje nie lubią OPEX-u niejako „z natury”, czyli z punktu widzenia księgowego, finansowego czy operacyjnego. Z drugiej strony idea „pay as you grow” stała się podstawą tego, w jaki sposób konsumujemy technologię. Połączenie najlepszych rozwiązań technologicznych wraz z wygodnymi modelami finansowymi budzi więc duże zainteresowanie. Coraz częściej wybierane są atrakcyjne modele rozliczeniowe w formie miesięcznego abonamentu – twierdzi Rafał Przedborski.

Chociaż można zaobserwować trend w kierunku modelu OPEX, to wciąż jest duża grupa klientów, która preferuje model CAPEX. Wynika to głównie z procedur, aktualnego budżetu, czy corocznego planowania. Czasami model OPEX nie jest po prostu możliwy. Natomiast wszędzie tam, gdzie nie ma tego typu ograniczeń, klienci coraz częściej chcą mieć także ofertę w modelu usługowym.

– Myślę, że jest to całkiem naturalne i dotyczy nie tylko branży IT, ale innych dziedzin życia, jak zakup auta czy usługi telewizyjne lub transportowe. Model usługowy jest przyszłością i jak widać, także w Polsce powoli staje się standardem – ocenia Maciej Kalisiak.

Zdaniem integratora

Sebastian Salamon, starszy specjalista ds. rozwiązań serwerowych, AT Computers Sebastian Salamon, starszy specjalista ds. rozwiązań serwerowych, AT Computers  

Przedstawienie kompletnego rozwiązania musi być poprzedzone rozmową z klientem, weryfikacją jego problemów oraz wymagań. Każda organizacja ma inne zaplecze sprzętowe, możliwości finansowe i priorytety, co wymaga tworzenia indywidualnie dopasowanych rozwiązań. W naszym mniemaniu tylko takie podejście do projektów sprawi, że zadowolony klient wróci do nas w przyszłości. Także w przypadku okresu i zakresu wsparcia potrzeby naszych klientów są bardzo różne. Ze względu na wygodę wybierają oni najczęściej roczny okres wsparcia, a po jego zakończeniu w łatwy sposób przedłużają go na kolejny rok. Sporo z nich oczekuje pełnego wsparcia i obsługi dla wdrożonych rozwiązań – w takim przypadku oferujemy kompleksowe zarządzanie całym systemem, a więc monitoring, aktualizacje i utrzymanie. Są także firmy, które oczekują tylko montażu połączonego z wdrożeniem oferowanego rozwiązania lub montażu, wdrożenia i szkolenia dla pracowników, a następnie samodzielnie w pełni zarządzają systemem. Bywa, że rygorystyczna polityka bezpieczeństwa nie pozwala na obsługę systemu przez firmę zewnętrzną.

  
Dariusz Michałek, inżynier systemowy, Vernity Dariusz Michałek, inżynier systemowy, Vernity  

Przy doborze rozwiązania zawsze rozpoczynamy od rozpoznania potrzeb klienta związanych z wydajnością, charakterem wdrożenia, serwisem czy kosztem użytkowania Infrastruktury. Wymaga to czasu i w niektórych przypadkach może trwać wiele miesięcy. Dokonujemy analizy dotyczącej obciążeń, wskaźników związanych z wydajnością i przepustowością. Rozmawiamy też o planach rozwojowych firmy, najczęściej w ujęciu co najmniej 5 lat. Ważna jest również ocena już stosowanych przez klienta rozwiązań, które mogą pochodzić od różnych producentów, oraz wynikających z ich obsługi doświadczeń i przyzwyczajeń. Obsługujemy głównie średnie i duże przedsiębiorstwa z sektora prywatnego, a storage jest tylko jednym z elementów składających się na kompleksowe rozwiązanie, jakie im dostarczamy. W tym obszarze zaspokajamy potrzeby firm związane głównie z wirtualizacją, bazami danych oraz zaawansowanymi systemami backupu. Z jednej strony elementem naszych wdrożeń są szkolenia, w ramach których staramy się maksymalnie usamodzielnić klientów. Z drugiej strony część firm oczekuje od nas stałego dostarczania usług związanych z zarządzaniem zaawansowanymi rozwiązaniami IT. Takim klientom proponujemy usługowe pakiety godzinowe, a w przypadku mniejszych podmiotów – możliwość wykupienia usługi w trybie ad hoc.