Cyfrowa transformacja nie jest procesem jednorazowym. Wszelkie zmiany wprowadzane są na ogół ostrożnie i zazwyczaj poprzedza je dogłębna analiza. Tegoroczna przyspieszona czy wymuszona informatyzacja, w ramach której część rozwiązań trzeba wdrażać w ekspresowym tempie, to wyjątek od wieloletniej reguły. Nic dziwnego, że nierzadko skutkuje to chaosem w firmowych działach IT, które coraz gorzej radzą sobie z obsługą zróżnicowanej infrastruktury. W tym kontekście analitycy i dostawcy rozwiązań zwracają szczególną uwagę na rozgardiasz panujący w centrach danych. Jedną z jego przyczyn jest fakt, że w serwerowniach tworzą się silosy, a klasycznym tego przykładem jest pamięć masowa. Urządzenia takie najczęściej pochodzą od kilku producentów, obsługują różne protokoły, systemy operacyjne i nośniki. Do tego dochodzą kwestie związane z migracją części zasobów do chmury.

– Taki stan rzeczy prowadzi do tego, że wzrasta liczba procesów wykonywanych manualnie, a także koszty związane z przetwarzaniem i przechowywaniem danych – podkreśla Floyd Christofferson, CEO StrongBox Data Solutions.

Ten całkiem już dojrzały startup z Oregonu od dwunastu lat zajmuje się porządkowaniem centrów danych. Jak wynika z portfolio klientów, do których należą tuzy takie jak NASA, Bosch, Canon, Boeing czy Sony Pictures, StrongBox koncentruje się przede wszystkim na klientach przechowujących petabajty danych.

– Nasz produkt zapewnia największą wartość dla firm z ogromnymi, złożonymi i cały czas przyrastającymi zbiorami danych, nie zaś dla organizacji z jedną macierzą NAS przechowującą 200 TB danych – przyznaje Floyd Christofferson.

Klienci jego firmy korzystają z systemu StrongLink przeznaczonego do zarządzania danymi przechowywanymi na heterogonicznych systemach pamięci masowej, niezależnie od tego czy pracują lokalnie, w chmurze publicznej bądź w środowisku hybrydowym. StrongLink jest bezagentowy i wdrażany na maszynach wirtualnych lub jako ISO. Autonomiczne silniki, oparte na metadanych, zapewniają użytkownikom globalny wgląd, wyszukiwanie i kontrolę nad plikami we wszystkich zasobach pamięci. Niedawno firma wprowadziła funkcję LTFS, która obsługuje biblioteki taśmowe pochodzące od dowolnego dostawcy.

Od chmury nie ma ucieczki

Gartner przewiduje, że do 2025 r. aż 99 proc. wszystkich plików będzie przechowywanych w środowiskach chmurowych, a pracownicy będą je tworzyć, współdzielić i magazynować nie widząc, gdzie one się znajdują – w chmurze czy na lokalnym serwerze. Zresztą do bardzo podobnych wniosków doszli analitycy Taneja Groups, którzy zauważają, że obecnie infrastruktura IT jest w 67 proc. wdrażana w środowisku lokalnym. Jednak za trzy lata ma to być już tylko 28 proc.

Te prognozy to miód na serce dla założycieli oraz inwestorów amerykańskiego startupu Nasuni. Firma opracowała platformę do przechowywania plików w chmurze, wykorzystującą globalny system plików UniFS. Rozwiązanie konsoliduje w środowisku chmurowym systemy NAS i silosy serwerów plików, zapewniając niemal nieograniczoną skalowalność. Nasuni obsługuje dostęp do plików za pośrednictwem wszystkich głównych protokołów, w tym SMB (CIFS), NFS, FTP/ /SFTP i HTTPS. Co ciekawe, firma oferuje również tworzenie kopii zapasowych, odzyskiwanie systemu po awarii czy globalne udostępnianie plików.

Założyciele startupu przekonują, że połączenie wymienionych funkcji z możliwościami chmury pozwala świadczyć usługi o połowę taniej niż w przypadku tradycyjnej infrastruktury. Zdaniem Andresa Rodrigueza, założyciela i CTO Nasuni, na rynku rozwiązań do przechowywania plików na przestrzeni ostatnich dwóch dekad nic się nie zmieniło. Dostawcy cały czas koncentrują się na urządzeniach, a tym samym ich rozwiązania nie są elastyczne, a ich eksploatacja generuje duże koszty.

– Firmy oraz instytucje funkcjonują teraz w niepewnych czasach. W związku z tym staje się zupełnie jasne, że jeszcze bardziej niż kiedykolwiek potrzebują chmury, zaś własne centrum danych to niepotrzebne zobowiązanie – dodaje Andres Rodriguez.

System dla chmury hybrydowej

Qumulo to kolejny przedstawiciel nowej fali dostawców rozwiązań storage, którzy chcą ożywić nieco skostniały rynek. Startup opracowuje systemy NAS scale out, będące alternatywą dla Dell EMC Isilon czy NetApp FAS Series. Firma, w przeciwieństwie do swoich konkurentów, od samego początku pracuje nad produktem przeznaczonym do pracy w środowisku chmury hybrydowej. System jest zdefiniowany programowo, co ułatwia jego rozbudowę oraz współpracę z zewnętrznymi platformami AWS, Google Cloud, Dell EMC czy HPE. Ten ostatni producent włączył już do swojej oferty rozwiązania Qumulo i sprzedaje je w regionie EMEA. Zapewniają dostęp do szerokiej gamy funkcji, w tym analityki w czasie rzeczywistym, informując na bieżąco o pojemności, IOPS czy najbardziej aktywnych klientach podłączonych do klastra. System jest dostępny w zróżnicowanych konfiguracjach, np. all flash lub jako rozwiązanie do archiwizacji. Jedną z ciekawszych funkcjonalności jest Shift, która służy do konwersji plików przechowywanych w fizycznych i wirtualnych macierzach NAS na obiekty w pamięci masowej AWS3 w chmurze.

– Przedsiębiorstwa przechowują dane w plikach, aczkolwiek chcą używać natywnych aplikacji chmurowych, które zwyczaj obsługują pamięć obiektową. Dlatego oferujemy naszym klientom łatwy sposób na magazynowanie cyfrowych zasobów w obu formatach – wyjaśnia Barry Russell, General Manager of Cloud w Qumulo.

Startup często wdraża systemy przeznaczone na potrzeby projektów związanych z multimediami i rozrywką. Przykładowo podczas renderowania plików wideo potrzebny jest szybki i rozszerzalny dysk. Wówczas można skorzystać z uzupełniających usług w chmurze, takich jak AWS Elemental MediaConnect, Amazon Elastic Transcoder czy AWS Elemental Live.

Kubernetes i dane

Większość baz danych opracowano z myślą o pracy na fizycznych bądź wirtualnych serwerach. Nikt wówczas nie miał jeszcze pojęcia o Dockerze i aplikacjach kontenerowych. Jednakże wraz z rosnącą popularnością konteneryzacji sprawy zaczęły się wymykać spod kontroli.

– Zauważyliśmy potrzebę nowego podejścia do zarządzania aplikacjami i usługami w przedsiębiorstwach oraz instytucjach. Wynika ona z szybkości innowacji, przyrastającej liczby urządzeń, nowych aplikacji i usług. Rozumiemy ciężar z jakim zmagają się twórcy oprogramowania oraz osoby zarządzające złożoną architekturą. Właśnie dlatego stworzyliśmy specjalną platformę – wyjaśnia Partha Seetala, CEO Robin.io.

Tradycyjne aplikacje są w większości przypadków stanowe, co oznacza, że magazynują ważne dane w pamięci, plikach i bazach danych. A kontenery obsługują zazwyczaj aplikacje bezstanowe, które nie przechowują informacji pojawiających się pomiędzy poszczególnymi zapytaniami klientów. Kubernetes, najpopularniejsze narzędzie do zarządzania serwisami i zadaniami uruchamianymi w kontenerach, pozwala przenosić bezstanowe aplikacje pomiędzy chmurami różnych dostawców. Nie radzi sobie natomiast z aplikacjami stanowymi. Powód? Każdy dostawca usług chmurowych ma własne metody automatyzacji, wdrażania i monitorowania aplikacji stanowych, co utrudnia ich migrację.

– Udostępniliśmy na Platform Robin usługę umożliwiającą przenoszenie aplikacji stanowych między chmurami, przy zachowaniu odpowiedniego SLA, opóźnień i kosztów. Nikomu przed nami nie udało się skutecznie rozwiązać tego problemu – mówi Partha Seetala.

Platforma automatyzacji Robin.io umożliwia firmom wdrażanie złożonych aplikacji, intensywnie korzystających z danych i sieci oraz zarządzanie nimi w ramach usługi as-a-service w dowolnym miejscu, środowisku lokalnym lub chmurze. To możliwe dzięki opracowaniu autorskiej architektury, której kluczowym elementem jest warstwa oddzielająca zasoby obliczeniowe od pamięci masowej. Rozwiązanie Robin.io zostało wdrożone m.in. w dużych koncernach świadczących usługi finansowe, a ostatnio zyskuje dużą popularność w sektorze telekomunikacyjnym. Jednym z klientów jest japoński operator Rakuten, pracujący nad uruchomieniem sieci 5G. Kontenery mają zastąpić maszyny wirtualne przy wirtualizacji funkcji sieciowych (NFV)i w sieci dostępu radiowego (RAN).  

NA TE STARTUPY WARTO MIEĆ OKO  

 

  • Robin.io

Rok powstania: 2013 r.

Fundusze Venture Capital: 46 mln dol.

Główna siedziba: San Francisco

CEO: Partha Seetala

 

  • Qumulo

Rok powstania: 2012 r.

Fundusze Venture Capital: 347,3 mln dol.

Główna siedziba: Seattle

CEO: Bill Richter

 

Nasuni

Rok powstania: 2008 r.

Fundusze Venture Capital: 187 mln dol.

Główna siedziba: Boston

CEO: Paul Flanagan

 

StrongBox Data Solutions

Rok powstania: 2008 r.

Fundusze Venture Capital: 34,4 mln dol.

Główna siedziba: Portland, Montreal

CEO: Floyd Christofferson