David Flynn jest znaną postacią w Dolinie Krzemowej, przede wszystkim dzięki spektakularnemu sukcesowi, jaki odniósł założony przez niego startup Fusion-io, a więc pierwszej firmy na świecie, która wprowadziła na rynek dyski półprzewodnikowe z interfejsem PCI. Znacznie mniej osób wie natomiast, że Amerykanin ma w karierze również pewien mniej przyjemny epizod. Jego inny startup, Primary Data, zajmujący się oprogramowaniem do zarządzania pamięciami masowymi, po siedmiu latach zniknął z rynku.

David Flynn dość szybko podniósł się po porażce i krótko po zamknięciu jednego biznesu, otworzył następny. Powstały w ten sposób Hammerspace działa w obszarze podobnym do tego, w jakim funkcjonowało Primary Data. Z tym, że Flynn najwyraźniej wyciągnął wnioski z bolesnej lekcji, bowiem produkt nowej marki posiada kilka nowych i unikalnych cech. Poza tym spotkał się z dość ciepłym przyjęciem ze strony rynku, czego nie można było powiedzieć o Primary Data. W Londynie system Hammerspace zaprezentowała Molly Presley, Head of Global Marketing w towarzystwie Briana Bashawa, pełniącego funkcję Field CTO.

Szkieletem całej konstrukcji startupu z Kalifornii jest Global Data Environment (GDE), czyli globalne środowisko danych. Pozwala ono użytkownikowi niejako zamienić rozproszone silosy plików i obiektów w pojedynczy zasób pamięci masowej.

– Narzędzia Apple’a i pomysł dzielenia się danymi w czasie rzeczywistym stały się możliwe, kiedy system operacyjny iOS zaczął zyskiwać na popularności. Użytkownik iPhone’a nie musi mieć wiedzy na temat infrastruktury, ani tego, gdzie znajdują się dane. Jego to w ogóle nie obchodzi. Jedyne, na czym mu zależy, to dostęp do informacji w czasie rzeczywistym z dowolnego urządzenia. Tak właśnie działa nasz produkt – tłumaczy Molly Presley.

Z punktu widzenia użytkownika operacja jest prosta, bowiem w celu uzyskania dostępu do wszystkich danych wystarczy połączyć się z systemem. Niezależnie od lokalizacji pliki pojawiają się w folderach tak, jakby znajdowały się na lokalnym serwerze NAS. Nie jest to tasowanie kopii plików między różnymi typami i lokalizacjami pamięci, co powoduje zamieszanie użytkowników i spędza sen z powiek administratorom IT. Hammerspace opracował uniwersalną płaszczyznę kontroli metadanych, inteligentnie łączącą pamięć fizyczną lokalnego dostawcy z wieloma lokalizacjami, w tym dostawcami usług chmurowych z różnych regionów.

Zalety Hammerspace dostrzegli, jako jedni z pierwszych, właściciele studiów filmowych, wykorzystujący rozwiązania do renderowania materiałów. Rzecz w tym, iż koszty funkcjonowania centrów danych w poszczególnych częściach globu mogą się od siebie znacznie różnić. Na przykład wydatki związane z utrzymaniem i zasilaniem sprzętu są w Londynie znacznie wyższe niż w Montrealu. W związku z tym można sporo zyskać uruchamiając wysokowydajne obciążenia obliczeniowe w tańszych lokalizacjach geograficznych. Z systemu Hammerspace korzystali między twórcy filmów Disneya „The Mandalorian” i kultowego serialu „Stranger Things”, wyświetlanego na platformie Netflix.

Brian Bashaw przedstawił najnowsze rozwiązanie – architekturę referencyjną przeznaczoną na potrzeby firm oraz instytucji pracujących nad rozwojem dużych modeli językowych (LMM). Architekci i technolodzy AI mogą wykorzystać istniejące sieci, sprzęt pamięci masowej i klastry obliczeniowe, jednocześnie strategicznie dodając nową infrastrukturę w miarę rozwoju ich operacji AI. Hammerspace ujednolica cały potok danych w równoległy globalny system plików, który integruje istniejącą infrastrukturę i dane z nowymi zestawami i zasobami w miarę ich dodawania.

Alternatywa dla HCI

Z kolei Nebulon to startup założony w 2018 r. przez weteranów z branży pamięci masowych, którzy do swoich dawnych sukcesów mogą zaliczyć macierze 3PAR (jak wiadomo, święciły one swoje największe sukcesy na początku naszego stulecia). I choć Nebulon również działa w branży pamięci masowych, to nie ma nic wspólnego z tradycyjnymi macierzami. Startup ten opracował kartę o nazwie SPU (Services Processing Unit), montowaną w serwerach x86 HPE, Della czy Supermicro. Serwery tworzą klaster, łącząc się za pośrednictwem portów Ethernet 25 Gb/s.

Najnowsza wersja SPU obsługuje system operacyjny bazujący na DPU (Data Processing Unit) z rodziny BlueField-2 należącej do Nvidii. To konwergentne rozwiązanie oferujące na jednej karcie PCIe ujednoliconą pamięć masową, usługi sieciowe oraz cyberzabezpieczenia. SPU zawiera 16 rdzeni ARM i 48 GB zunifikowanej pamięci masowej DDR5, łącząc się bezpośrednio z wewnętrznymi dyskami SSD NVMe, SAS lub SATA serwera. Oparta na chmurze płaszczyzna sterowania Nebulon ON zapewnia monitorowanie całej floty, globalne aktualizacje oprogramowania sprzętowego i uwierzytelnianie o zerowym zaufaniu.

– Kiedy pojawiliśmy się na rynku, otrzymaliśmy mnóstwo informacji zwrotnych od szefów działów IT. Najczęściej wyrażali oni swoje obawy związane z bezpieczeństwem. W związku z tym zaczęliśmy skupiać się nie tylko na wydajności, ale również zabezpieczeniu infrastruktury przed atakami ransomware. To był jeden z kluczowych tematów podczas pracy nad nową wersją produktu – mówi Craig Nunes, Chief Operating Officer w Nebulonie.

Zastosowanie procesora DPU uwalnia więcej rdzeni procesora i redukuje o około jedną czwartą koszty licencjonowania oprogramowania, a także przestrzeń centrum danych i zużycie energii. Przedstawiciele firmy przekonują, że na przykład firmy telekomunikacyjne, które zdecydują się na instalację Nebulona, mogą na krawędzi w mobilnych wieżach zmniejszyć liczbę swoich serwerów z pięciu do dwóch. System Nebulona stanowi zatem alternatywę dla systemów hiperkonwergentnych (HCI).

– Od czasu, kiedy systemy HCI zaczęły pojawiać się w korporacyjnych centrach danych, minęło już kilka lat. To wprawdzie świetna koncepcja, ale w międzyczasie powstały inne rozwiązania opracowane przez hiperskalerów – tłumaczy Craig Nunes.

Przedsiębiorstwa i dostawcy usług wciąż posiadają infrastrukturę w środo-wisku lokalnym, co szczególnie dotyczy systemów pracujących na brzegu sieci. Niemniej chcą uzyskać wydajność oraz bezpieczeństwo charakterystyczne dla systemów używanych przez hiperskalerów. Biorąc pod uwagę ograniczenia istniejących alternatyw, coraz więcej przedsiębiorstw bada hiperskalowe architektury centrów danych wspomagane przez DPU na potrzeby rozwiązań lokalnych.