Pamięci masowe IBM dla sztucznej inteligencji
Boom na sztuczną inteligencję stawia poważne wyzwania przed dostawcami pamięci masowych. IBM już od dawna jest przygotowany na taki scenariusz.

W dobie rosnącej popularności sztucznej inteligencji potrzebne są rozwiązania, które pozwolą zapanować nie tylko nad ogromną ilością rozproszonych danych, ale również zagwarantować wysoką wydajność i bezpieczeństwo. Dodatkowa trudność polega na tym, że w przeciwieństwie do tradycyjnych aplikacji, które działają z danymi strukturalnymi, obciążenia AI i analizy wymagające dużej wydajności operują na danych nieustrukturyzowanych, takich jak dokumenty, pliki audio, obrazy czy filmy.
Naprzeciw powyższym wyzwaniom wychodzi IBM Storage Scale System – wysokowydajna platforma sprzętowa, która obsługuje oprogramowanie IBM Storage Scale. Rozwiązanie umożliwia organizacjom zbudowanie globalnej platformy danych dla najbardziej wymagających obciążeń AI, HPC, analityki i chmury hybrydowej.
System bazuje na równoległym systemie plików i można go wdrożyć na serwerach IBM Power, mainframe IBM zSystem bądź urządzeń innych dostawców, w tym na serwerach x86. Może też działać na kliencie POSIX bazującym na architekturze ARM, w maszynach wirtualnych i na platformie Kubernetes.
– GPFS pojawił się w ofercie IBM w 1998 roku, około 2017 zmienił nazwę na Spectrum Scale, a ostatnio na Storage Scale. W tym czasie oprogramowanie zyskało uznanie wśród użytkowników i jest postrzegane jako najlepszy system pamięci masowej przeznaczony do pracy z modelami sztucznej inteligencji. To bardzo dobra alternatywa dla innych rozwiązań, które powstały na przestrzeni ostatnich kilkunastu miesięcy – podkreśla Andrzej Gładysz, wiceprezes zarządu Averbit.
IBM oferuje Storage Scale System w dwóch wersjach. Pierwsza z nich to IBM Storage Scale System 6000, propozycja dla najbardziej wymagających użytkowników, którzy potrzebują rozwiązań skalowalnych do tysięcy węzłów, o pojemności liczonej w petabajtach. Maksymalna wydajność systemu wynosi 13 milionów IOPS, zaś pojemność do 3,4 PB w standardowej przestrzeni stelażowej 4U. Druga wersja – IBM Storage Scale System 3500 – ma podobne możliwości jak model 6000, z tą różnicą, że oferuje mniejszą pojemność.
IBM razem z Nvidią
IBM współpracuje z Nvidią w różnych projektach prowadzących do zapewnienia optymalnej integracji, a także wydajnej komunikacji pomiędzy systemami pamięci masowej a serwerami GPU. W 2022 obie firmy, wspólnie z pracownikami Cornell University, opracowały architekturę Big Accelerator Memory (BaM), która umożliwia procesorowi graficznemu (GPU) pobieranie danych bezpośrednio z pamięci systemowej i masowej bez użycia procesora (CPU) – to sprawia, że układy GPU są bardziej samowystarczalne. Celem BaM jest również zwiększenie pojemności pamięci GPU i zwiększenie efektywnej przepustowości dostępu do pamięci masowej.
Nvidia rekomenduje system IBM jako jeden z elementów swojej architektury referencyjnej Nvidia DGX SuperPOD. Na szczególną uwagę zasługuje w tym kontekście kombinacja łącząca serwery GPU Nvidia oraz IBM Storage Scale. Wykorzystanie IBM Storage Scale 3500 z szybszym kontrolerem (w porównaniu z modelem 3200) oraz procesorem AMD 48-core EPYC 7642, pozwoliło uzyskać maksymalne przepustowości sekwencyjnego zapisu/odczytu na poziomie 60/126 GB/s. Według niezależnego testu IBM osiąga najlepszy wynik pod względem przepustowości odczytu, wyprzedzając DDN, VAST, Pure, NetApp i Dell PowerScale, zaś w przypadku zapisu IBM ustępuje jedynie DDN.
Nie tylko wysoka wydajność stanowi atut IBM Storage Scale. Obecnie jest to jedyny produkt spośród rekomendowanych przez Nvidię, który wspiera automatyczny tiering, pozwalający przenosić dane na tańsze nośniki, w tym między innymi taśmy. To istotne o tyle, że uchwalony w marcu 2024 EU AI Act wymaga długoterminowego przechowywania danych wykorzystywanych do trenowania modelu. Innym walorem IBM Storage Scale System jest wysoki poziom bezpieczeństwa, który zapewniają technologia Erasure Coding, funkcja Safeguarded Copy (WORM Snapshot) i replikacja active-active.
– Infrastruktura pamięci masowej odgrywa bardzo ważną rolę we wspieraniu zaawansowanych aplikacji sztucznej inteligencji i uczenia maszynowego. Organizacje poszukują rozwiązań, które zapewnią im nie tylko wysoką wydajność, ale również skalowalność potrzebną do pracy z wielkimi zbiorami danych. Architektura referencyjna Nvidia DGX SuperPOD wraz z systemem IBM idealnie spełnia te potrzeby – podsumowuje Andrzej Gładysz.
Więcej informacji na stronie firmy Averbit

Podobne artykuły
Sztuczna inteligencja na brzegu sieci
Wartość Edge AI polega na jej potencjalnych możliwościach natychmiastowego rozwiązywania realnych problemów, co otwiera szerokie pole do innowacji dla integratorów IT.
Więcej prądu dla centrów danych
Wobec wzrastających za sprawą AI potrzeb operatorzy centów danych zaczynają myśleć o swojej niezależności energetycznej.
Sztuczna inteligencja, czyli sprzęt na sterydach
Minione miesiące pokazały jak duże znaczenie w świecie nowych technologii odgrywa sprzęt. Tworzenie zaawansowanych modeli sztucznej inteligencji byłoby niemożliwe bez wykorzystania serwerów i macierzy dyskowych naszpikowanych procesorami graficznymi.