W centrach danych coraz częściej pojawiają się rozbudowane klastry przeznaczone do szkolenia sztucznej inteligencji czy obsługi obciążeń HPC (High Performance Computing). Ich ekspansja mogłaby postępować szybciej, gdyby nie dwa czynniki: ograniczona dostępność procesorów graficznych oraz koszty infrastruktury, w tym pamięci masowych. O ile pierwsza z wymienionych przeszkód prawdopodobnie wkrótce zniknie, o tyle druga jest dużo trudniejsza do pokonania.

Ten właśnie problem stara się rozwikłać amerykański startup Hammerspace, założony w 2018 r. przez Davida Flynna. Odpowiedzią na rozrastające się silosy danych, wąskie gardła wydajności czy złożone wymagania w zakresie orkiestracji ma być Hammerspace Global Data Platform – zunifikowane rozwiązanie do zarządzania i dostępu do danych w wielu lokalizacjach, w tym środowiskach chmurowych oraz na brzegu sieci. Użytkownik platformy łatwo korzysta z danych, niezależnie od miejsca, w którym przebywa, zaś administrator zarządza za pomocą jednej konsoli zasobami pamięci masowych rozsianymi po całym świecie. Przedstawicielka Hammerspace, podczas A3 TechnologyLive!, zaprezentowała Tier 0, dodatkowy poziom pozwalający optymalnie wykorzystać lokalną pamięć NVMe.

– Obecnie serwery z procesorami graficznymi mogą być wyposażone od 60 do 500 TB pamięci flash, a niebawem nawet 2 PB. Niestety, lokalna pamięć masowa NVMe serwera GPU w dużej mierze pozostaje niewykorzystana i nie może być współdzielona z innymi urządzeniami. Dzieje się tak,  ponieważ jest odizolowana i nie ma wbudowanych funkcji niezawodności oraz dostępności. Tier 0 odblokowuje tę właśnie, wydajną lokalną pojemność NVMe w serwerach GPU – tłumaczy Molly Presley, SVP Global Marketing w Hammerspace.

Tier 0 zapewnia poprawę wydajności, automatyzując ruch danych między aktywnymi i archiwalnymi poziomami. Oprócz warstwy zerowej (czas reakcji liczony w mikrosekundach), Hammerspace oferuje Tier 1 (milisekundy), Tier 2 (sekundy) oraz Archive (minuty). Dane są dostarczane bezpośrednio do procesorów graficznych z lokalnymi prędkościami NVMe, z pominięciem tradycyjnego opóźnienia sieci i pamięci zewnętrznej. Według wyliczeń dostawcy w przypadku systemu składającego się z tysiąca serwerów GPU o łącznej pojemności 100 PB i przepustowości 1 TB/sec, zastosowanie Tier 0 obniża koszty zakupu  infrastruktury o 40 mln dol.

Hammerspace’s Tier 0 jest propozycją adresowaną dla przedsiębiorstw zarządzających wielowęzłowymi środowiskami GPU. Amerykański startup nie jest jednak pierwszym, który wykorzystuje lokalne dyski SSD GPU, aby poprawić wydajność ścieżki danych dla obciążeń związanych ze sztuczną inteligencją – taką funkcjonalność oferuje na przykład  WEKA.

SSD w centrum danych

Koreańczycy mają bogate tradycje w zakresie rozwoju pamięci flash NAND, wystarczy wymienić takie marki jak Samsung czy SK hynix. W ich ślady próbuje iść utworzona w 2015 r. firma FADU Technology.

– Naszą misją  jest dostarczanie wielopokoleniowych rozwiązań zapewniających najwyższą wydajność, stałe niskie opóźnienia i wysoką jakość, zachowując niski pobór mocy. Wyznaczamy nową ścieżkę dla nośników SSD przeznaczonych do pracy w centrach danych – tłumaczy Jihyo Lee, CEO i współzałożyciel FADU.

Centrala firmy znajduje się w Seulu, a w 2018 r. otworzyła amerykański oddział w Santa Clara. Pięć lat później FADU zadebiutowało na KOSDAQ –  wtórnej giełdzie  papierów wartościowych Korea Exchange (KRX).

Nasze rozwiązania SSD bazują na standardowych specyfikacjach branżowych, zaprojektowanych z autorską architekturą kontrolera pamięci flash FADU i są kompatybilne z  nośnikami oferowanymi przez wielu dostawców – podkreśla Jonmichael Hands, Senior Director Product Planning w FADU.

Firma wyszła z założenia, że starsze kontrolery zasilania ze względu na złożoną warstwę FTL (Flash Translation Layer)  i obciążone podsystemy procesora nie mogą sprostać rosnącym wymaganiom bez przegrzewania. W rezultacie ich producenci obniżają moc i temperaturę, a to prowadzi do zmniejszenia przepustowości, zwiększa opóźnienia i ogólnie pogarsza jakość nośnika.

– Rzeczywiście taki problem z kontrolerami istnieje. W miarę postępu technicznego staje się on coraz bardziej dotkliwy. Również warstwa FTL potrafi być złożona, tym bardziej, że żywotność układów zaczyna się skracać. Producenci muszą przykładać dużą wagę do takich aspektów jak wyrównanie zużycia, zarządzanie defektami, TRIM czy zbierania sieci – tłumaczy Paweł Kaczmarzyk, właściciel Kaleronu.

Odpowiedzią FADU na taki stan rzeczy jest opracowanie autorskiej technologii, która skaluje się wraz z rosnącymi wymaganiami w zakresie wydajności i mocy. W ramach nowego projektu uproszczono FTL,  miejsce złożonego procesora zajął układ bazujący na architekturze RISC-V, przy czym wprowadzono warstwę FlashAcceleration Layer (FAL). Jak do tej pory firma opracowała trzy generacje kontrolerów bazujących na RISC-V: ; Bravo w 2020 r. (PCIe 3.0), Delta w 2021 r. (PCIe 4.0) i Echo w 2023 r. (PCIe 5.0), a obecnie pracuje nad kontrolerem czwartej generacji Sierra powiązanym z PCIe 6.0.

Koreańczycy zaangażowali się również w rozwój produktów wykorzystujących otwarty standard CXL (Compute Express Link), umożliwiający procesorom CPU oraz innym układom (GPU, FPGA, SOC) bezpośrednią komunikację i koordynację procesów współdzielenia pamięci w centrach danych. Pamięć DRAM jest przypisana wyłącznie wyposażonemu w nią serwerowi. W przeciwieństwie do pamięci masowej nie można jej dzielić pomiędzy kilka serwerów, aby zaspokoić jednorazowe potrzeby w zakresie obliczeń. Wprawdzie można zastosować rozszerzenia w każdym z serwerów, ale to dość drogie rozwiązanie. Tymczasem popularyzacja CXL sprawi, że współdzielenie DRAM stanie się dużo prostsze. Według specjalistów rynek otworzy się na ten standard dzięki CXL bazującemu na  PCIe 6.0, zapewniającemu maksymalną przepustowość 256 GB/s.

FADU Technology oficjalnie przyznaje się do współpracy z Western Digital oraz SK hynix, dążąc do tego, aby poszerzyć liczbę partnerów o kolejnych producentów nośników. Ponadto firm dostarcza dyski w modelu white label dla Swissbit i SMART Modular.

Dane na brzegu sieci

O ile przedstawiciele Hammerspace czy FADU uważają, że kluczowe operacje związane z przetwarzaniem zasobów cyfrowych zachodzą w centrach danych, o tyle brytyjski StorMagic koncentruje się na brzegu sieci.

Data center wcale nie jest centrum danych. Ono znajduje się na brzegu sieci, gdzie obecnie wytwarza się 75 proc. danych, zaś 40 proc. jest przechowywanych – mówi Bruce  Kornfeld, Chief Product Officer w  StorMagic.

Flagowym produktem firmy z Bristolu jest SvSAN – rozwiązanie hiperkonwergentne zaprojektowane specjalnie z myślą o urządzeniach brzegowych, które pracują w małych i średnich firmach. System można uruchomiać już od dwóch serwerów, a specjaliści StorMagic podkreślają, że właśnie z tego wariantu korzysta większość klientów tej firmy.

Brytyjski producent nie obawia się, że mniejsze podmioty przetwarzające dane na brzegu zaczną przenosić się do chmury. Zdaniem Bruce’a Kornfelda skutecznie zniechęcają ich do tego awarie internetu powodujące nieplanowane przestoje, koszty uruchamiania aplikacji, przechowywanie danych oraz transmisji czy ograniczona przepustowość sieci.

Jednakowoż nie tylko rosnące znaczenie przetwarzania brzegowe napędzają biznes StorMagic. Jednym z najgorętszych tematów w branży jest już od co najmniej roku zakup VMware’a przez Broadcom.  Transakcja przyczyniła się do dużych zmian w kanale sprzedaży, uderzając w mniejszych oraz średnich integratorów. Jednak rynek nie znosi próżni, a powolne wycofywanie się Broadcomu z tego segmentu otworzyło furtkę dla dostawców alternatywnych rozwiązań.

Nie ukrywam, że cieszą nas działania podjęte przez Broadcom, bowiem jesteśmy ich beneficjentem. Oni  skupili się na dużych klientach, a my przejmujemy wiele mniejszych firm, które wcześniej korzystały z produktów VMware’a – wyjaśnia Bruce  Kornfeld.

StorMagic w czerwcu ubiegłego roku rozszerzył ofertę o nowy produkt SvHCI. System SvSAN (około 50 tys. instalacji na całym świecie) dociera do klientów wykorzystujących hiperwizory Vmware’a lub Microsoftu. Natomiast SvHCI, służący do instalacji bezpośrednio na nowych lub istniejących serwerach, zawiera hiperwizor bazowy na KVM, sieć wirtualną i SvSAN (jako warstwę oprogramowania do przechowywania danych). Według wyliczeń StorMagic obniża to koszty wdrożenia  oprogramowania nawet o 62 proc. w porównaniu z ofertą Vmware’a. Warto przy tym podkreślić, że brytyjski dostawca przywiązuje bardzo dużą wagę do współpracy z partnerami.

– Mniejsze firmy bardzo ufają integratorom. Z kolei my udostępniamy naszym partnerom handlowym rozwiązania, które pomagają ich klientom łatwo i szybko przenieść się do nowego środowiska IT –podsumowuje Bruce  Kornfeld.