Ostatnio ulubieńcami funduszy venture capital stały się startupy, które rozwijają rozwiązania powiązane ze sztuczną inteligencją, wirtualną rzeczywistością, a także Internetem rzeczy. Zdecydowanie mniej mówi się natomiast w tym środowisku o infrastrukturze sieciowej oraz pamięciach masowych. Co jednak nie oznacza, że inwestorzy zupełnie przestali interesować się tą tematyką. Według Scotta Kupora, partnera zarządzającego w funduszu Andreessen Horowitz, działy IT w firmach wciąż znajdują się na wczesnym etapie transformacji.

Dlatego zamierzamy finansować ciekawe projekty dotyczące pamięci masowych, infrastruktury sieciowej czy aplikacji dla centrów danych. Nie ulega wątpliwości, że przedsiębiorcy będą generować duży popyt na wymienione grupy produktów – mówi Andreessen Horowitz.

Warto dodać, że Scott Kupor, jeden z najbardziej uznanych funduszy w swojej branży, zaliczył korporacyjne rozwiązania infrastrukturalne do czterech najbardziej perspektywicznych obszarów IT, obok sztucznej inteligencji, wirtualnej rzeczywistości oraz usług finansowych. Zresztą nie trzeba być wielkim ekspertem, żeby dostrzec bliskie korelacje pomiędzy modnymi trendami i zapotrzebowaniem na nowoczesne narzędzia do obsługi danych. W obecnych czasach niemal każda aktywność tworzy cyfrowy ślad, a to dopiero przedsmak tego, co czeka nas w nieodległej przyszłości. Specjaliści podają na przykład, że autonomiczny samochód generuje ok. 100 GB danych na sekundę (sic!).

Eksperci z Google’a twierdzą, że firmy, które dziennie mają dziesiątki interakcji z klientami, mogą we własnym zakresie tworzyć sztuczną inteligencję przy wykorzystaniu technik uczenia maszynowego. W końcu przedsiębiorcy łakną informacji, dzięki którym udoskonalają swoje produkty, przyciągają nowych klientów, a tym samym zyskują kolejne porcje danych. W tym celu konieczne są jednak inwestycje w innowacyjną infrastrukturę oraz nowoczesne aplikacje.

– Wzrost danych to żadna nowość, wszyscy wokół o tym mówią. Tak naprawdę istotne jest, jaki rodzaj zasobów cyfrowych rośnie. W zeszłym roku przetworzono 10 zetabajtów danych krytycznych, a za osiem lat zbliżymy się do 60 zetabajtów. To sprawia, że zmieniają się wymagania wobec infrastruktury. Ważna jest nie tylko wydajność, ale również skalowalność, ekonomia i prostota – tłumaczy Ashish Gupta, CMO w Vexata.

 

Szybsi niż macierz all-flash

Firmy coraz częściej wykorzystują dane do analizy rynków, kontaktują się w czasie rzeczywistym z klientami, automatyzują procesy biznesowe. Wśród beneficjentów zmian zachodzących w świecie biznesu znajdują się m.in. dostawcy macierzy all-flash. Według danych IDC globalna sprzedaż tych urządzeń rośnie w tempie ok. 40 proc. rocznie. To imponujący wynik, gdy weźmie się pod uwagę zastój w segmencie tradycyjnych macierzy dyskowych. Jednak nie brakuje opinii, że systemy all-flash mają mankamenty, a ich zastosowanie nie zawsze przynosi pożądane efekty.

– Systemy all-flash powstały jako alternatywa dla macierzy z dyskami twardymi i spełniły swoją rolę. Niemniej zmiany na rynku są dynamiczne. W ostatnim czasie pojawiło się mnóstwo aplikacji intensywnie korzystających z danych. Dlatego potrzebne jest świeże spojrzenie na architekturę pamięci masowych – przekonuje Zahid Hussain, CEO i współzałożyciel Vexata.

Autor tej wypowiedzi nie jest żółtodziobem rzucającym słowa na wiatr. Zahid Hussain spędził wiele lat w EMC i VMware. W pierwszej z wymienionych firm był m.in. szefem Flash Products Division, a także kierował zespołem inżynierów pracujących nad rozwojem macierzy VNX oraz Isilon. Sama Vexata powstała pod koniec 2013 r., a pierwszy produkt z portfolio tej firmy – VX-100 – ujrzał światło dzienne dopiero w drugiej połowie ubiegłego roku. Startup otrzymał do tej pory 54 mln dol. od czterech funduszy, wśród których znalazł się Intel Capital.

 

Vexata kieruje swoje rozwiązanie do użytkowników aplikacji krytycznych, takich jak Oracle, MS-SQL, SAS czy KX. VX-100 łączy się z siecią za pośrednictwem protokołu Fibre Channel, umożliwiając budowę klastrów składających się z 4–16 modułów pamięci masowych. Vexata jako węzły wykorzystuje serwery kasetowe, z których każdy ma cztery dyski SSD NVMe. Za unikalne należy uznać zastosowanie w każdym z węzłów układu FPGA.

Opracowana przez startup architektura zapewnia uzyskanie wysokiego poziomu utylizacji procesora – 90 proc. Dla porównania: w macierzach all-flash współczynnik ten oscyluje wokół 30 proc. W większości przypadków im dłużej procesor czeka na odpowiedź z pamięci masowej, tym bardziej negatywnie wpływa to na jego wydajność. Macierze all-flash zazwyczaj potrzebują wysokiej klasy procesora, żeby zapewnić rozsądny poziom wydajności. Natomiast Vexata umożliwia uzyskanie dobrych wyników z wykorzystaniem tańszego układu z pojedynczym gniazdem procesora.

– Nasze rozwiązanie jest konkurencyjne cenowo wobec macierzy all-flash. Przewyższa je też pod względem parametrów. Kombinacja zastosowana w VX-100 umożliwia uzyskanie 20 razy wyższego współczynnika IOPS oraz 4 razy mniejszego opóźnienia, a także zapewnia obsłużenie 7 razy więcej użytkowników – wylicza Zahid Hussain.

 

Dla powracających z chmury

W minionych latach część gigantów rynku IT, którzy do niedawna wyznaczali reguły gry, musiała przejść do defensywy. Jedną z przyczyn takiego stanu rzeczy jest chmura publiczna. Niepośledni wpływ na rozwój wydarzeń w branży wywierają także nowe techniki open source. Cassandra, Hadoop czy Spark zmieniają nie tylko architekturę sieci, ale również wymuszają zastosowanie nowych rozwiązań sprzętowych. Zaawansowane macierze dyskowe coraz częściej są zastępowane przez serwery x86. Przykłady Amazona, Google’a czy Facebooka pokazują, że takie rozwiązania sprawdzają się zarówno pod względem funkcjonalności, jak i ekonomii. Nie można jednak zapominać, że zarządzanie rozległą i rozproszoną infrastrukturą wymaga odpowiednich kwalifikacji oraz narzędzi.

– W tradycyjnych środowiskach IT uważa się, że klaster składający się z dziesięciu węzłów jest bardzo duży. Dla odmiany nowoczesne firmy budują systemy składające się nawet z 1000 węzłów. Przy takiej skali zarządzanie pojedynczymi „pudełkami” staje się niemożliwe, należy tworzyć specjalne pule zasobów – tłumaczy Tom Lyon, Chief Scientist w DriveScale.

DriveScale to firma wywodząca się z Sunnyvale, która od 2013 r. pracuje nad autorską infrastrukturą komponowalną. Idea tego rozwiązania polega na dostarczeniu systemu wdrażanego w środowisku lokalnym, które ma charakterystyczne cechy chmury publicznej, a więc skalowalność, elastyczność oraz szybkość wdrożenia. Architektura infrastruktury komponowalnej bazuje na trzech filarach: elastycznej puli zasobów, inteligentnym oprogramowaniu oraz ujednoliconym API. W koncepcji wspomnianego startupu kluczową rolę spełnia adapter DriveScale, łączący za pomocą Ethernetu dowolny serwer bezdyskowy z macierzą JBOD wyposażoną w dyski SAS. Należy zaznaczyć, że wszystkie urządzenia zainstalowane są w pojedynczej szafie rack.

 

– Nasze rozwiązanie umożliwia skonfigurowanie klastrów obliczeniowych i pamięci masowych o różnych rozmiarach, a także rozmaitych współczynnikach obliczania i przechowywania. To przekłada się na lepsze wykorzystanie zasobów, ograniczenie zużycia energii i możliwość szybkiej reakcji na zmieniające się potrzeby użytkowników. Z naszych obliczeń wynika, że współczynnik TCO DriveScale w okresie 5 lat jest o połowę niższy aniżeli w przypadku tradycyjnych systemów – dodaje Tom Lyon.

Co ciekawe, trzon DriveScale tworzą osoby wcześniej piastujące ważne stanowiska w Sun Microsystems. Ci weterani IT stoją przed trudnym wyzwaniem, tym bardziej że część przedsiębiorstw planuje migrację do chmury publicznej.

– Rozmawiamy z wieloma klientami, którzy są rozczarowani kosztami usług chmurowych i chcą wracać do infrastruktury wdrażanej lokalnie. Zapewnimy im elastyczność, optymalizację sprzętu i duże oszczędności, nawet do 75 proc. w porównaniu z chmurą publiczną – przekonuje Tom Lyon.

Dotychczas DriveScale otrzymał od funduszy venture capital zastrzyk w wysokości 18 mln dol., a ciekawostką jest, że na liście resellerów tego startupu znajduje się m.in. Dell EMC.

 

Klienci nie mają alternatywy

Na fali popularności Hadoopa, Cassandry, a także innych nierelacyjnych baz danych (MongoDB, Redis czy Neo4j) próbuje popłynąć Datos IO. Jednak o ile DriveScale koncentruje się na kwestiach związanych z przetwarzaniem danych, o tyle startup z San Jose postawił na ich ochronę. Środowiska klastrowe cechują się dużą dostępnością oraz skalowalnością, aczkolwiek ochrona pracujących w nich aplikacji stanowi nie lada wyzwanie. Datos IO jest pierwszą firmą, która opracowała system chroniący dane w nowych środowiskach. Firmy zaczynają powszechnie korzystać z Hadoopa i Sparka, ale nikt do tej pory nie znalazł rozwiązania, które mogłoby skutecznie chronić dane i aplikacje funkcjonujące w nowych środowiskach.

– Zmierzamy w podobnym kierunku jak niegdyś Veeam. Ten producent potrafił idealnie wykorzystać rosnącą popularność wirtualizacji, wprowadzając na rynek narzędzie do backupu maszyn wirtualnych. My opracowaliśmy narzędzie do tworzenia kopii zapasowych nierelacyjnych baz danych. O ich popularności świadczy fakt, że Mongo DB oraz Redis znajdują się w pierwszej trójce najczęściej używanych baz w chmurze publicznej – wyjaśnia Tarun Thakur, menedżer stojący na czele Datos IO.

Pomimo że premiera produktu RecoverX odbyła się nieco ponad rok temu, zdążył pozyskać takich klientów jak: Barracuda, Cisco, Verizon, eBay, T-Mobile czy Macey’s.

– Dlaczego wybraliśmy Datos IO? Nie mieliśmy wyboru, żadna inna firma nie oferuje takiego rozwiązania – przyznaje Ashley Penney, dyrektor IT w firmie Maxwell Health (system RecoverX chroni w tym przypadku bazę danych MongoDB funkcjonującą w chmurze Amazona).

Póki co fundusze wpompowały w Datos IO 15,2 mln dol., a na liście inwestorów znajdują się m.in. Cisco oraz NetApp.

 

HPC dla biznesu

Systemy High-Performance Computing, umożliwiające porządkowanie i analizę ogromnych ilości danych, najczęściej utożsamiane są z dużymi ośrodkami badawczo-rozwojowymi i rozwiązywaniem poważnych problemów. Wszystko wskazuje na to, że Big Data oraz Internet rzeczy sprawią, iż grono użytkowników poszerzy się o przedsiębiorstwa produkcyjne, branżę mediów i rozrywki oraz firmy energetyczne.

– Z naszych badań wynika, że rynek HPC wzrośnie w 2018 roku o około 7 proc., a jednym z motorów napędowych będzie biznes. Ta grupa klientów szuka systemów o wysokiej wydajności i niezawodności. Nie mniej ważna jest elastyczność, umożliwiająca dostosowanie pamięci masowych do zupełnie nowych zastosowań, jak chociażby
deep learning
– wyjaśnia Addison Snell, CEO Intersect360 Research.

Do walki o nowe grupy klientów włączą się IBM Spectrum i DDN Storage – dostawcy rozwiązań HCI, a także producenci urządzeń typu scale-out NAS: Net App, Dell EMC Isilon czy HPE. Swojej szansy w tym segmencie rynku szuka też Panasas, określając własną ofertę jako „HPC commercial”.

– Trzeba się liczyć z tym, że przedsiębiorcy mogą mieć zupełnie inne oczekiwania wobec HPC niż instytucje badawcze. Rozwój sztucznej inteligencji, wirtualna rzeczywistość czy pojawienie się autonomicznych samochodów wymuszą na wielu firmach zastosowanie mocniejszych systemów obliczeniowych i składowania danych. Niezwykle istotne są kwestie związane z równoległym dostępem wielu użytkowników do danych czy osobne zarządzanie metadanymi oraz aktualnymi danymi – wylicza Jim Donovan, CMO w Panasas.

Producent, który działa na rynku od 1999 r. i ma ponad 500 klientów, w tym m.in. Airbusa, Boeinga czy NASA, dokonał kilku istotnych zmian w architekturze swojego systemu. Na pierwszy plan wysuwa się wdrożenie ASD-100, a więc serwera odpowiedzialnego za zarządzanie metadanymi i usługami klastrów. W przeciwieństwie do poprzednich wersji, jednostka jest odizolowana od węzłów, co zapewnia optymalną wydajność i przystosowanie do zmiennych wymagań infrastruktury sieciowej. Zmiany nastąpiły również w systemie operacyjnym. PanFS 7.0 bazuje na FreeBSD i ułatwia zarządzanie danymi. Czas uruchomienia klastra zawierającego 1 PB danych zajmuje około godziny, natomiast automatyczne rozpoznawanie nowych jednostek pamięci masowych upraszcza skalowalność.

– Zaczynamy powoli uniezależniać się od kilku dużych klientów rządowych. Architektura naszego produktu i jego możliwości nieco wyprzedzają czas, ale rynek zmierza właśnie w tym kierunku – zapewnia Faye Pairman, CEO Panasas.

Wszystko wskazuje na to, że w nieodległej przyszłości sprzedaż systemów HPC może być źródłem przychodów dla integratorów. Równie ciekawe perspektywy rysują się przed innowacyjnymi rozwiązaniami do budowy infrastruktury bądź ochrony danych. Czas pracuje na korzyść nowych graczy, którzy ochoczo odkrywają nieznane obszary.