À propos, ostatnio coraz częściej w oprogramowaniu macierzy dyskowych można znaleźć różnorodne funkcje ochrony danych, zarówno przed utratą, jak też przed cyberatakami. To duża rewolucja w porównaniu z podstawowym zadaniem pamięci masowych. Czy rzeczywiście użytkownicy korzystają z takich funkcji?

Jak najbardziej, w ostatnim czasie ich obecność stała się jednym z kluczowych kryteriów wyboru dla klientów. Zadaniem macierzy dyskowej jest bezpieczne przechowywanie danych i zapewnienie ich jak największej dostępności. Wcześniej cel ten był osiągany tylko poprzez łączenie dysków w strukturę RAID, aby zabezpieczyć się na wypadek awarii napędu, zaś wysoka dostępność poprzez odpowiednie zaprojektowanie poszczególnych komponentów i przetestowanie ich współpracy. Jednak cyfrowy świat wokół nas staje się coraz bardziej niebezpieczny, co w kontekście faktu, że dane są najważniejszym zasobem we wszystkich branżach, zmusiło wszystkich zainteresowanych do podjęcia dodatkowych działań. W dobie powszechnych ataków ransomware mechanizmy ochronne powinny być wbudowywane absolutnie wszędzie, aby chronić przed powodzeniem takiego ataku, a gdy do niego dojdzie, umożliwiać jak najszybsze przywrócenie środowiska do pracy. Stąd coraz więcej mechanizmów weryfikacji danych, blokad przed masowym zaszyfrowaniem, wykonywania kopii, replikacji do zewnętrznych repozytoriów itd.

Skoro już mówimy o wydajności, w tej dziedzinie dzięki protokołowi NVMe usunięte zostało wąskie gardło powodowane przez interfejsy SAS i SATA. Niemal równolegle na znaczeniu błyskawicznie straciła organizacja Storage Performance Council, której strona internetowa z wynikami testów wydajnościowych macierzy dyskowych była mekką dla wszystkich zainteresowanych tematem i jedynym wiarygodnym źródłem takich informacji. Dlaczego tak się stało i jak w dzisiejszych czasach skutecznie porównywać wydajność konkurencyjnych macierzy? A może, w dobie dysków NVMe, porównywanie wydajności już nie ma sensu?  

Rzeczywiście, pamiętam jak wyniki testów SPC były głównym kryterium zakupowym, ale nie zawsze słusznie. Wydajność pamięci masowych od zawsze była skomplikowaną dziedziną do analizy. Testy SPC to była bardzo prosta symulacja teoretycznego obciążenia, charakterystycznego głównie dla baz danych. Tymczasem rola pamięci masowych w firmach uległa zmianie. Obecnie obsługują one bardzo wiele środowisk – jedno urządzenie może przechowywać bazy danych, maszyny wirtualne, pliki itd. Dostępnych jest wiele wpływających efektywnie na wydajność funkcji, jak kompresja, deduplikacja czy wspomniane już mechanizmy antyransomware. Do tego dochodzi integracja z chmurą i wymiana danych przez internet. W takich okolicznościach stworzenie testu, który rzetelnie i uczciwie oceniłby wydajność macierzy w celu porównania jej z konkurencją, jest praktycznie niemożliwe. Testy wydajnościowe mogą prowadzić klienci zainteresowani danym rozwiązaniem, w ramach projektów proof of concept. W naszym przypadku oferujemy  możliwość wykonania testów konkretnych aplikacji w naszych centrach obsługi, co pozwala zasymulować rzeczywistą wydajność, jaką uzyskają w swoim środowisku.

Jak w kontekście tej rewolucji, związanej z zastosowaniem nośników flash w profesjonalnych rozwiązaniach, wygląda sytuacja mechanicznych twardych dysków?

Tam, gdzie jest potrzebny sekwencyjny dostęp do danych, twarde dyski sprawdzają się bardzo dobrze pod względem wydajności, a ich cena za jednostkę pojemności wciąż jest znacznie niższa. Nieustannie rośnie też ich pojemność. Natomiast oczywiście liczba ich zastosowań będzie spadać, podobnie jak już praktycznie zostały wyparte z komputerów osobistych. W tej dziedzinie wiele będzie się zmieniało w najbliższym czasie ze względu na obecność nowych technologii produkcji kości pamięci flash, jak QLC, które zapewniają bardzo dużą pojemność za niską cenę. Nie są one tak trwałe jak poprzednie, ale prace nad tym trwają, poza tym nieustannie rozwijane są kontrolery dysków SSD, dzięki którym ryzyko utraty danych jest praktycznie eliminowane.

Lenovo oferuje rozwiązania pamięci masowej również w modelu subskrypcyjnym TruScale Infinite Storage. Nie jest on jednak dostępny w Polsce, czyżby nasi klienci nie byli zainteresowani tego typu ofertą?

Polski rynek jest postrzegany jako bardzo atrakcyjny dla tego typu usług – konkurencyjny i duży. Na pewno jako jeden z najciekawszych w całym regionie CEE. Dlatego z pewnością ta usługa będzie oferowana w waszym kraju, ale w tej chwili jeszcze nie jest dostępna we wszystkich państwach, ponieważ cały czas dopracowujemy warunki jej świadczenia. Ten model oferowania rozwiązań IT stanowi kluczowy element naszej strategii, zresztą obejmujemy nim także inne produkty, na przykład dla środowiska SAP. To jest jeden z czynników wynikających z dużych zmian związanych z przekształceniami na rynku IT, zmieniającą się rolą dostawców, partnerów i usługodawców. Tu dobrym przykładem są operatorzy chmurowi, których określamy jako next-generation cloud service providers. Mimo że teoretycznie są to nasi klienci, bo w ich infrastrukturze działają nasze rozwiązania, traktujemy ich jako partnerów. Wszystko wskazuje na to, że wolumenowo to będą najwięksi odbiorcy rozwiązań infrastruktury centrów danych. Dlatego te partnerstwa są dla nas tak ważne – współpracujemy z większością głównych CSP w Europie, także w Polsce.

Rozmawiał Krzysztof Jakubik

Jan Jiskra Jan Jiskra  

Pracuje w branży IT od ponad 25 lat. Przez większość tego czasu koncentrował się na rozwiązaniach pamięci masowych i zarządzaniu danymi. Do Lenovo, gdzie pełni funkcję dyrektora sprzedaży pamięci masowych na rynkach Europy Środkowo-Wschodniej i Centralnej Azji, trafił cztery lata temu. Wcześniej pracował na różnych stanowiskach technicznych, sprzedażowych i kierowniczych w międzynarodowych firmach, takich jak Sun Microsystems, HPE czy NetApp.