W minionych miesiącach branża nowych technologii niemal oszalała na punkcie sztucznej inteligencji. Wszyscy zastanawiają się, na ile nowe narzędzia typu ChatGPT czy DALL·E 2 wpłyną na rynek pracy. Natomiast mniej mówi się o wymaganiach, jakie musi spełniać infrastruktura potrzebna do wykonywania obliczeń na ogromnych zbiorach danych. Duża szansa otwiera się przed dostawcami HPC (High-performance computing), czyli systemów obliczeniowych dużych mocy. Takie rozwiązania do niedawna znajdowały zastosowanie w badaniach akademickich, ale wraz ze wzrostem danych sytuacja się zmienia. Wspomniana sztuczna inteligencja, a także wirtualna rzeczywistość czy projektowanie autonomicznych samochodów wymuszają na przedsiębiorcach inwestowanie w bardziej wydajne systemy obliczeniowe i pamięci masowe. W rezultacie z HPC zaczęli korzystać nie tylko naukowcy na wyższych uczelniach, ale również branża energetyczna, motoryzacyjna czy przemysł wydobywczy. Wszystko wskazuje na to, że w najbliższych latach ta lista będzie się wydłużać.

Jeff Whitaker, wiceprezes marketingu w Panasas, uważa, że konwergencja sztucznej inteligencji oraz uczenia maszynowego z HCP wymusza przeprowadzenie zmian w zakresie infrastruktury. Warto w tym miejscu dodać. że Panasas istnieje od ponad dwóch dekad i należy do prekursorów systemów NAS typu scale-out oraz równoległych systemów plików. Obecnie amerykański producent znajduje się w ścisłej czołówce dostawców HPC.

Sztuczna inteligencja i uczenie maszynowe stanowią nowe obciążenia dla HPC. Poza tym oba trendy przyczyniają się do wzrostu znaczenia przetwarzania na brzegu sieci, ze względu na konieczność wykonywania mniejszych obliczeń HPC bliżej miejsca powstawania danych. Dlatego inżynierowie Panasas opracowali najnowszy produkt tej marki – ActiveStir Ultra – z myślą o przystosowaniu go do nowych realiów. System przechowuje metadane na nośnikach SSD NVMe, mniejsze pliki na SSD SATA, a największe na HDD. Warto przy tym zauważyć, że Panasas stosuje odmienną technikę warstwowania danych niż konkurenci, bowiem bazuje na wielkości plików, a nie ich wieku i częstotliwości dostępu.

Jeff Whitaker sceptycznie patrzy na usługi chmurowe i nie widzi w tym przypadku zbyt dużej przestrzeni do działania. W pewnym stopniu wynika to ze zjawiska grawitacji danych, które po raz pierwszy opisał na swoim blogu Dave McCrory w 2010 r. Organizacje mają trudności z przenoszeniem dużych zbiorów danych, dlatego bardzo często pozostają one w jednym miejscu. Z kolei inne elementy, takie jak aplikacje i moc obliczeniowa są przyciągane do lokalizacji danych, tak jak obiekty przyciągane są do obiektów o większej masie grawitacyjnej.

– W przypadku obciążeń HPC sprzęt i oprogramowanie służące od obliczeń, pamięci masowe i sprzęt sieciowy muszą być ściśle zintegrowane. Nie jest to łatwo wykonalne w chmurze publicznej, w której oprogramowanie dowolnego dostawcy działa na instancjach dostawcy chmury – tłumaczy Jeff Whitaker.

Hammerspace przeciw grawitacji danych  

Hammerspace to kolejny startup z Kalifornii, który postawił sobie za cel uporządkowanie silosów danych. Pomysłodawcą przedsięwzięcia jest David Flynn. Dziewięć lat temu założona przez niego firma Fusion-IO jako pierwsza na świecie opracowała nośniki SSD z interfejsem PCI. Jednak oprócz sukcesu, amerykański przedsiębiorca ma na swoim koncie spektakularną porażkę. Założona przez niego w 2013 r. Primary Data miała wprowadzić ożywczy powiew na rynek SDS (Software Defined Storage). Zamiar się nie powiódł, choć inwestorzy wpompowali w to przedsięwzięcie 100 mln dol., a jedną z twarzy startupu był Steve Wozniak.

Hammerspace powstał w 2018 r., niedługo po upadku Primary Data i jest niejako kontynuacją tamtego projektu. Jak na razie firma zbiera dobre oceny wśród naszych kolegów z amerykańskiej redakcji CRN. W ubiegłym roku startup znalazł się na liście „CRN 2022 Emerging Vendor“, zaś w bieżącym trafił do rankingu „The 20 Coolest Cloud Storage Companies Of The 2023 Cloud 100”.

Molly Presley, Head of Global Marketing w Hammerspace, podkreśla, że nie potrafi zidentyfikować konkurencyjnych dostawców, bo tak naprawdę ich nie ma. Hammerspace zaprojektował globalne środowisko danych, które definiuje sposób, za pomocą którego użytkownicy oraz aplikacje mogą uzyskać dostęp do plików przechowanych w różnych lokalizacjach, na rozmaitych urządzeniach.

Według Hammerspace jednym z największych problemów jest „uwięzienie” metadanych systemu plików na zastrzeżonej platformie każdego dostawcy pamięci masowej. Takie metadane są tym, co użytkownicy i aplikacje widzą, gdy uzyskują dostęp do swoich plików. Kiedy urządzenie się zapełni lub trzeba przenieść pliki do innego typu lub lokalizacji pamięci masowej, użytkownicy muszą ponownie zamontować nowy system plików. Floyd Christofferson, VP Product Marketing w Hammerspace, porównuje to do sytuacji, kiedy systemy plików były uwięzione w warstwie systemu operacyjnego komputerów w latach 90., kiedy trzeba było skopiować plik (i jego metadane) na dyskietkę, aby się nim z kimś podzielić. Hammerspace opracował technologię, która umożliwia użytkownikom dostęp do plików za pośrednictwem standardowych protokołów sieciowych w dowolnym typie pamięci masowej i wielu lokalizacjach.

Osobną kwestią pozostaje unikalność oferty Hammerspace. W tym segmencie rynku działa kilku dostawców, takich jak NetApp, CTERA, Nasuni i Panzura. Jednak w przeciwieństwie do Hammerspace oferują własne, preferowane systemy, czyli tworzą kolejne silosy. Przykładowo, Nasuni udostępnia pliki za pośrednictwem Nasuni Edge Appliance, czyli maszyn wirtualnych lub serwerów x86 z zainstalowanym oprogramowaniem.