Organizacji SNIA należą się gratulacje ze względu na fakt, że od ponad 20 lat skupia walczących ze sobą na co dzień na śmierć i życie konkurentów z rynku pamięci masowych, aby wspólnie wypracowywali nowe standardy dla tej branży. Co jest największym czynnikiem tego sukcesu?

Rzeczywiście, to już ponad ćwierć wieku, a w tym czasie mieliśmy do czynienia z wieloma przełomami oraz zmieniającymi się trendami w branży pamięci masowych. Były one na tyle znaczące, że firmy doszły do wniosku, iż tylko współpraca, a nie zamykanie się na innych, zapewni możliwość skutecznego kontynuowania prac rozwojowych. Na początku XXI wieku obserwowaliśmy olbrzymi wzrost popularności protokołu Fibre Channel i generalnie łączności pamięci masowych w sieci, aby zapewnić szybko rosnącym wówczas firmom możliwość skalowania ich środowisk. Później zaczęły się bardzo szybkie zmiany w wydajności i interfejsach wykorzystywanych nośników – najpierw SATA, potem przekształcenia interfejsu SCSI, następnie błyskawiczny wzrost popularności pamięci flash i wreszcie pojawienie się protokołu NVMe. Mówimy tu o przechowywaniu na wielką skalę najważniejszych obecnie zasobów, jakie istnieją na świecie, a więc cyfrowych danych. Sukces polegający na udanym stworzeniu tak olbrzymiego ekosystemu nie byłby możliwy, gdyby firmy nie współpracowały ze sobą. Równolegle trzeba było zapewnić odpowiednie interfejsy API, narzędzia do produkcji danych rozwiązań, weryfikacji poprawności ich pracy i zarządzania nimi, działania edukacyjne itd. Z wieloma wyzwaniami nadal mamy do czynienia.

Jakie obecnie są najważniejsze?

Przez lata dane były zapisywane na nośnikach magnetycznych, a nawet jeśli trafiały do pamięci flash, to nadal dostęp do nich następował poprzez interfejs twardych dysków. Wszystko zmienił standard NVMe. Zgodne z nim nośniki z technicznego punktu widzenia – biorąc pod uwagę metodę zapisu, wydajność, interfejs – nie są dyskami, lecz pamięciami, tylko nieulotnymi w momencie odłączenia zasilania, więc trudno zaliczyć je do kategorii określanej jako storage. To wymusiło zmianę podejścia w naszej filozofii, ale także bardziej zakrojoną współpracę z innymi, jak DMTF czy nową organizacją Ultra Ethernet Consortium, która skupia się na zapewnianiu łączności sieciowej dla środowisk sztucznej inteligencji i wysokowydajnego przetwarzania, czyli HPC. Kiedyś w większych firmach mieliśmy do czynienia z sytuacją, że była w nich jedna duża macierz dyskowa lub kilka połączonych ze sobą w sieć Storage Area Network i to z nimi łączyły się serwery. Dziś możliwych scenariuszy jest o wiele więcej. Dla przykładu, ze względu na potrzebę eliminowania opóźnień w przesyłaniu danych serwery często dysponują własnymi pojemnymi zasobami dyskowymi, przy czym powinna być zapewniona możliwość centralnego zarządzania nimi oraz procesami ochrony zgromadzonych danych. Musimy więc na kwestię przetwarzania informacji w środowisku IT patrzeć całościowo, a nie wybiórczo, jak do tej pory.

Czy oznacza to, że możemy oczekiwać zmiany nazwy organizacji SNIA na bardziej dostosowaną do nowych okoliczności?

Ależ to się parę lat temu już wydarzyło! Wcześniej był to skrót od Storage Networking Industry Association, co oznaczało, że skupialiśmy się głównie na aspektach dotyczących łączenia systemów pamięci masowych w sieć. Ze wspomnianych już powodów ta nazwa przestała być adekwatna, ale że postrzeganie SNIA w branży IT było dość pozytywne, dlatego jako naszą nową nazwę przyjęliśmy właśnie „SNIA” – bez rozwinięcia skrótu.

Czym zatem będzie zajmować się SNIA w najbliższej przyszłości?

Musieliśmy pogodzić się z faktem, że wielu pracowników związanych z IT, których praca jest uzależniona od danych, ma o pamięciach masowych niewielkie pojęcie. Nawet ci związani z infrastrukturą techniczną, na przykład odpowiedzialni za środowiska wirtualizacji czy kontenerów, często nie są świadomi jak sposób ich przechowywania wpływa na wydajność lub jakie są możliwości ich przenoszenia pomiędzy różnymi środowiskami, a także do chmury. Po prostu tego nie wiedzą, to jest dla nich jak magia – oni nie używają takiej terminologii jak my, którzy znamy się na pamięciach masowych, musimy więc zmienić sposób, w jaki komunikujemy się z tymi ludźmi. To zaś oznacza konieczność intensyfikacji działań edukacyjnych, które zresztą i tak prowadzimy od początku istnienia SNIA, oraz skierowania ich do znacznie szerszej grupy odbiorców. Bardzo ważne dla nas jest, aby nawiązywać pozytywne relacje, bo ludzie, którzy potrzebują szybkiego i gwarantowanego dostępu do danych często nie wiedzą jak rozwiązać swój problem, my zaś tak. Muszą natomiast wiedzieć, że my jesteśmy gotowi do pracy i chcieć się komunikować z nami.

Jednym z takich wyzwań przyszłości z pewnością jest wspomniana już sztuczna inteligencja. Czy jej popularyzacja w jakimś znaczącym stopniu może wpłynąć na rynek pamięci masowych?

Wobec rozwiązań obsługujących mechanizmy sztucznej inteligencji wysuwane są bardzo znaczące wymagania architektoniczne, przede wszystkim pod kątem przepustowości i skalowalności. Zarządzają one ogromnym kopcem danych, które muszą zostać pozyskane, zamodelowane, usystematyzowane i wreszcie zrozumiane. A efekt tej pracy musi być dostępny natychmiast na żądanie każdego uprawnionego użytkownika. Tu nie ma miejsca nawet na jeden błąd w planowaniu potrzebnej infrastruktury pamięci masowych, zarówno pod kątem pojemności, wydajności, jak też łączności z serwerami odpowiedzialnymi za proces głębokiego uczenia oraz udostępniania jego wyników. Co więcej, od początku trzeba też zakładać, że takie środowisko będzie się często zmieniać – zazwyczaj szybko rosnąć. Na każdym etapie jego tworzenia i eksploatacji konieczna jest więc świadomość tego, w jaki sposób będzie można je rozbudowywać i zwiększać jego wydajność. To wszystko powoduje, że do środowisk AI potrzebne będą najwyższej jakości pamięci masowe – zarówno pod kątem wydajności, jak też trwałości oraz dostępności.