Jakiego typu?  

Mam na myśli mechanizmy sztucznej inteligencji i uczenia maszynowego, które wymagają nie tylko bardzo szybkiego przetwarzania danych przez procesory kart graficznych, ale też błyskawicznego dostępu do danych archiwalnych, będących „paliwem” dla uczących się silników. Poza tym, w firmach przetwarzanych jest coraz więcej naprawdę różnorodnych danych. W jednej macierzy bywają przechowywane maszyny wirtualne, kontenery, środowiska mikrousług, bazy danych, pliki, w tym backup ze stacji roboczych i serwerów, materiały wideo z systemów cyfrowego nadzoru itd. Dlatego wybór odpowiedniej macierzy, zapewniającej satysfakcjonującą wydajność zarówno przy operacjach losowych, jak również szybkiego zapisu i odczytu sekwencyjnego, nadal nie jest prosty i wymaga doświadczenia w rozpoznawaniu potrzeb klientów, którego powinni oni oczekiwać od integratorów.

A jakiego typu błędy podczas wyboru pamięci masowych i ich wdrażania popełniane są najczęściej?

Celem klientów jest jak najszybsze wprowadzenie w życie ich usług, aby mogli prowadzić biznes. Dlatego za problem uznają każdą sytuację, która może przyczynić się do opóźnień. Rzadko, ale zdarza się, że w wyniku braku zrozumienia podstawowych kwestii związanych z przechowywaniem danych cały projekt wdrożenia jest niewłaściwy, bo wybrano zbyt wolne nośniki lub infrastrukturę sieciową, albo zdecydowano się na takie rozwiązanie, w którym brakuje wewnętrznych mechanizmów zabezpieczania danych. Zdarza się też brak znajomości najlepszych praktyk, szczególnie w kontekście próby przewidzenia jak będą zmieniały się wymagania co do wspomnianej już wydajności, ale też objętości danych – należy zapewnić sobie jak największą elastyczność w kwestii skalowalności środowiska. Jeśli klient nie posiada wystarczającej wiedzy w tym zakresie, a jego wymagania są specyficzne, powinien skontaktować się z partnerem, który specjalizuje się głównie w tematyce związanej z zarządzaniem danymi. Aby uniknąć niepowodzeń w fazie wdrażania, ważne jest też budowanie i utrzymywanie przez klienta kultury oraz zasad DevOps, a także dostosowywanie operacji do rozwoju aplikacji i potrzeb biznesowych.

Na rynku pamięci masowych rozwija się nowy trend związany z zarządzaniem nimi w chmurze. Czy jest to chwilowa moda i z czasem, chociażby ze względów bezpieczeństwa, praktyki takie zostaną zaniechane, czy też w ten sposób klaruje się model zarządzania całą infrastrukturą IT w przyszłości?

Nie ma już ścisłych granic między chmurą a środowiskiem lokalnym. Większość klientów buduje hybrydową architekturę chmurową, aby wykorzystać to, co najlepsze z obu światów. Łączą model konsumpcyjny w chmurze i szybkie wdrażanie z bezpieczeństwem infrastruktury znajdującej się za firewallem. Środowisko aplikacji gotowych do pracy w chmurze odgrywa tutaj ważną rolę w zapewnianiu płynnej integracji.

Jeszcze dwadzieścia lat temu producenci pamięci masowych, zazwyczaj celowo, doprowadzali do sytuacji typu „vendor lock-in”, w której różnymi sztuczkami technicznymi, finansowymi lub odpowiednią konstrukcją umowy utrzymaniowej uzależniali od siebie klienta. Później, głównie dzięki wysiłkom organizacji SNIA, większość z tych praktyk została zaniechana, a środowisko pamięci masowych stało się bardziej otwarte i interoperacyjne. Ostatnio coraz częściej można zauważyć jednak, że co prawda systemy te nadal są otwarte i „rozmawiają” ze sobą, ale niektóre bardziej zaawansowane funkcje są dostępne tylko w ramach korzystania z rozwiązań  tego samego producenta. Czy w ten sposób „na miękko” następuje powrót starych praktyk?

To kwestia wielowątkowa i należy spojrzeć na nią z różnych punktów widzenia. Generalnie potwierdzam, w branży pamięci masowych o wiele rzadziej występuje zjawisko „vendor lock-in” niż dwie dekady temu. Ponadto klienci są obecnie bardzo przeczuleni na tym punkcie i unikają wybierania rozwiązań, które współpracują wyłącznie z innymi produktami danego dostawcy. Akurat segment pamięci masowych jest jednym z najbardziej otwartych w branży IT. W tym przypadku większość technologii sprzętowych i programowych jest uniwersalnych, a konkurenci korzystają z tych samych platform procesorowych, pamięci, interfejsów twardych dysków i łączności sieciowej. To akurat trzeba branży pamięci masowych zaliczyć na plus.

Czyli problem został wyeliminowany na zawsze?

To zależy jak na to spojrzeć, bo rzeczywiście istnieją korzyści płynące z posiadania infrastruktury od jednego producenta. To gwarantuje, że współpraca takich rozwiązań ze sobą została wystarczająco przetestowana oraz łatwiejsza jest ich integracja. Ich dostawca może stworzyć narzędzia, dzięki którym prostsze będzie zarządzanie, chociażby za sprawą ujednoliconego interfejsu, co oznacza brak konieczności dodatkowych szkoleń dla administratorów. Jeśli dana firma jest przy tym producentem serwerów, może stworzyć narzędzia do wspólnego zarządzania całym środowiskiem. Natomiast taki poziom integracji niekoniecznie musi oznaczać „vendor lock-in”. Zresztą identyczne mechanizmy można zaobserwować nie tylko w przypadku pamięci masowych, ale także w innych dziedzinach, szczególnie przy systemach bezpieczeństwa.