W Izraelu na jeden startup przypada około 1000 mieszkańców tego kraju. Żadne państwo świecie nie może pochwalić się takim wskaźnikiem. Na sukces miejscowych firm składa się kilka czynników: kreatywność, państwowe pieniądze oraz bliskie relacje ze Stanami Zjednoczonymi. Wielu młodych graczy potrafi wykorzystać stworzone im warunki, co pokazuje chociażby przykład FinOut. Choć firma wystartowała dopiero przed dwoma laty, zdążyła już pozyskać od funduszy venture capital 18 mln dolarów. Startup zarabia pieniądze przede wszystkim na klientach AWS i Microsoft Azure, choć nie tylko.

Cena jest jednym z największych atutów usług chmurowych – zapewniali kilka lat temu dostawcy. Jednak rzeczywistość  dość szybko zweryfikowała ich deklaracje. Chmura wcale nie jest tania, a kalkulacja kosztów wymaga niemal tajemnej wiedzy. Trzy lata temu O’Reilly Media wydało  licząca 284 strony książkę „Cloud FinOps” o tym jak zarządzać wydatkami na usługi chmurowe. Ale sama teoria to za mało. Na rynku pojawiają się też rozwiązania pozwalające organizacjom uporać się z tym problemem.  Duzi gracze tacy jak VMware czy NetApp zainwestowali w startupy (odpowiednio Cloud Health i Spot) opracowujące narzędzia do analizy i optymalizacji usług infrastruktury chmurowej.

Niewykluczone, że w przyszłości losy wymienionych młodych graczy podzieli właśnie FinOut, który oferuje kompleksowe rozwiązania do zarządzani kosztami u wszystkich dostawców chmury, hurtowniach danych i CDN (Content Delivery Network).

Ucieczka z chmury to zły pomysł

Usługobiorcy rozczarowani ofertą AWS, Microsoft Azure czy Google Cloud Platform czy innych dostawców, zawsze mogą wrócić do środowiska lokalnego. I tak się dzieje, ale zdaniem FinOut nie jest to najlepsza opcja.

Nie przestajesz kupować paliwa do samochodu, bo wydajesz na nie dużo pieniędzy. Po prostu jeździsz tak, aby spalanie było bardziej wydajne – tłumaczy Yoav Golub, dyrektor marketingu FinOut.

Wysokie koszty usług chmurowych mogą mieć różne podłoże. Czasami w ramach usługi oferowanych jest 100 funkcji, a użytkownik korzysta tylko z jednej. Innym poważnym problem jest shadow IT, zjawisko polegające na tym, że część pracowników kupuje usługi bez wiedzy działu zakupów.

Pierwszą rzeczą jaką musimy zrobić u klienta, jest audyt. Chcemy dowiedzieć się ile wydaje na usługi chmurowe AWS, GCP, Microsoft Azure bądź innych dostawców. Przyglądamy się też kosztom związanym z użytkowaniem drogich rozwiązań, takich jak Snowflake, Mongo DB czy Akamai. To wszystko zamieszczamy w jednolitym zestawie danych – tłumaczy Roi Ravhon, współzałożyciel i CEO FinOut.

Podobne narzędzia do analizy kosztów oferują też najwięksi dostawcy usług chmurowych. Dlaczego zatem inwestować w dodatkowe rozwiązania, takie jak właśnie FinOut? Przewagą tego produktu jest automatycznie wykrywaniu anomalii kosztowych w chmurze u różnych dostawców. Poza tym FinOut wykazuje wydatki w podziale na zespół, funkcję, a nawet klienta. Kiedy jeden z ustalonych progowych zostanie przekroczony, użytkownik natychmiast otrzymuje powiadomienie na Slacka lub e-mail.

Monitoring IT dla programisty

Obserwowalność stała się jednym z kluczowych trendów w segmencie systemów monitoringu infrastruktury. Jej idea polega na integracji narzędzi do analizy dzienników, a także monitorowania i zarządzania wydajnością. Zamiast używać oddzielnych systemów do rozwiązywania problemów z aplikacjami lub infrastrukturą, lepiej robić to za pomocą jednego produktu.

Obserwowalność bazuje na trzech filarach: dziennikach rejestrujących zdarzenia, metrykach dostarczających najważniejsze pomiary dotyczące wydajności i śladach działania oprogramowania. Na rynku działa kilku dostawców tego typu rozwiązań, w tym Rookout – startup z Tel Awiwu. Firma znalazła niszę opracowując specjalne narzędzie dla developerów.

Założyciele startupu uważają, że „tradycyjna obserwowalność” ma z punktu widzenia developera kilka mankamentów. Większość narzędzi nadmiernie skupia się na wskaźnikach dotyczących infrastruktury. Niemniej programiści, aby lepiej zrozumieć co dzieje się w aplikacjach, są zainteresowani uzyskaniem wglądu na poziomie kodu.  Inny problem dotyczy statycznego charakteru systemów monitoringu. Wprawdzie użytkownicy mogą zdobyć dostęp do określonego śladu, metryki lub fragmentu informacji o aplikacji i wyszukiwać je, ale aby to zrobić, muszą wykonać żmudną pracę – dokonać zmian w kodzie i ponowne wdrożyć aplikację.

– Ten cykl jest bardzo uciążliwy. W elastycznych firmach zazwyczaj zajmuje to kilka godzin, ale w koncernach ten proces może ciągnąć przez tydzień, a nawet kwartał – mówi Shahar Fogel, CEO Rookout.

Ostatnią kwestią jest debugowanie produkcji w czasie rzeczywistym. Klasyczne systemy nie realizują tego zadania, tymczasem jest to bardzo ważna funkcja z punktu widzenia programistów. W rezultacie zamiast uzyskiwać natychmiastowy wgląd w działający kod, muszą przewidywać swoje potrzeby z wyprzedzeniem, co jest praktycznie niemożliwe w przypadku, kiedy trafiają na niespodziewane problemy.

– Rookout zasadniczo zmienia ten paradygmat, bowiem zapewniamy możliwość dynamicznego obserwowania. Użytkownik może wskazać określone miejsce, kliknąć przycisk i uzyskać dostęp do danych. Programista nie musi pisać kodu, dodawać logów i wdrażać ponownie aplikacji. Wszelkie czynności wykonuje w czasie rzeczywistym, nie powodując przestoju w pracy oprogramowania. W rezultacie skracamy średni czas naprawy o 80 proc. – wyjaśnia Shahar Fogel.

Rookout oferuje cztery rozwiązania: Live Debugger, Live Logger, Live Profiling, Live Metrics.  Klienci mogą korzystać zarówno z jednego produktu, jak i wszystkich czterech.  Oferta adresowana jest od dla małych i średnich firm, ale także koncernów,  dużych instytucji finansowych. Użytkownikami narzędzi Rookout są między innymi booking.com, NetApp, Cisco, Santander czy Dynatrace. Obecność w tym gronie ostatniej z wymienionych firm, która opracowuje rozwiązania do monitoringu IT, może być pewnego rodzaju niespodzianką

– Nasze produkty nie są alternatywą dla systemów monitorowania środowiska informatycznego, lecz jedynie ich uzupełnieniem. Około 95 proc. naszych klientów korzysta już z rozwiązań do zarządzania wydajnością aplikacji czy rejestracji procesów zachodzących w sieci – tłumaczy Shahar Fogel.

Podczas spotkania w Tel Awiwie z europejskimi dziennikarzami startup przedstawił najnowszą, reklamowana przez siebie jako „czwarty filar obserwowalności”, funkcję „Smart Snapshot”. Jest to szczegółowy zapis obrazu, pomocny w sytuacjach, kiedy wydarzyło się coś nieoczekiwanego i w celu przywrócenia aplikacji potrzebny jest dostęp do danych z poziom kodu.

Czasami informacje pochodzące z metryk dzienników nie pomagają developerowi w rozwiązaniu problemu. Smart Snapshot to kolejny, wyższy poziom. Jeśli obraz jest wart tysiąc słów, to snapshot jest wart tysiąca wierszy w dzienniku – mówi Liran Haimovitch, CTO i współzałożyciel Rookout.

CTERA: miliardy plików pod kontrolą

Nieustrukturyzowane środowiska danych powoli pogrążają się w chaosie. Już sama ilość tego typu danych (część z nich jest kompletnie niepotrzebna) przyprawia działy IT o zawrót głowy. Ale to nie jedyny problem, bowiem do tego dochodzą heterogoniczne systemy pamięci masowych, a także nadmierne rozproszenie cyfrowych zasobów w różnych lokalizacjach, czasami oddalonych od siebie o tysiące kilometrów. Przedsiębiorcy  próbujący ujarzmić rozrost danych niestrukturyzowanych, nie są w tej walce bezbronne. CTERA, NetApp, Nasuni czy Hammerspace oferują rozwiązania integrujące lokalne magazyny danych z chmurą publiczną, prywatną i hybrydową. Tym samym użytkownik zyskuje dostęp do danych w jednym miejscu, niezależenie od lokalizacji plików bądź obiektów.

Sytuacja w tym segmencie jest bardzo dynamiczne, a sprawy nabrały tempa w czasie pandemii. COVID-19 spowodował, że niemal wszyscy zaczęli pracować ze zdalnych biur, a wielu przedsiębiorców rozpoczęło poszukiwania rozwiązania pozwalającego  zarządzać i kontrolować nieustrukturyzowane dane w jednej przestrzeni nazw.

Izraelska CTERA należy do beneficjentów tych zmian. W 2022 roku przychody firmy wzrosły o 38 proc. Obecnie zarządza ona ponad stoma miliardami plików o łącznej pojemności przekraczającej 150 PB.  Dekadę temu klienci potrzebowali systemu do obsługi maksymalnie 200 terabajtów, ale dziś rozmawia się o petabajtach. Według Gartnera w ciągu trzech najbliższych lat duże przedsiębiorstwa potroją pojemność danych niestrukturyzowanych w środowiskach lokalnych i chmurowych, a także na brzegu sieci.  Co istotne, przyrost danych niestrukturyzowanych nie jest już wyłącznie dziełem człowieka, coraz większy udział  mają tutaj maszyny.

Czas na zmiany

W marcu CTERA poinformowała o zmianie na fotelu CEO – Oded Nagel zastąpił Lirana Eshela, który pełnić będzie prezesa i pozostanie zaangażowany w strategiczne działania firmy. Oded Nagel pracuje w  CTERA od piętnastu lat, a przez ostatnie sześć lat jako Chief Strategy Officer (CSO) odpowiadał za zarządzania produktami i rozwój biznesu.

Oded Nagel podkreśla, że dekadę temu negocjacje z klientami znacznie się różniły od obecnych. Najczęściej pytali oni o IOPS, kopie zapasowe, kompresję czy deduplikację. Jednak ostatnie pięć lat przyniosły w tym zakresie dość istotne zmiany.

Ludzie chcą z nami rozmawiać o zgodności i mobilności danych, dostępie do nich z dowolnego miejsca. W ostatnim czasie zaczynają się pojawiać takie kwestie jak możliwości współpracy heterogonicznych systemów, odporność na cyberataki czy uruchamianie skalowalnych aplikacji w chmurze publicznej, prywatnej i hybrydowej. Wyłania się też nowy trend w postaci DataOps – mówi Oded Nagel.

CTERA poza zmianą CEO, wprowadziła do swojego rozwiązania kilka innowacji, które mają sprostać obecnym i przyszłym oczekiwaniom nabywców. Na pierwszy plan wysuwa się autorska ochrona przed atakami ransomware.

Większość organizacji posiada na punktach końcowych ochronę przed ransomwarem. Ale rośnie grupa klientów proszących o dodanej kolejnej warstwy zabezpieczającej przed tym złośliwym oprogramowanie. Czasami brakuje tej ochrony, co pokazuje przykład przedmiotów IoT. Niejednokrotnie się zdarza, że użytkownicy korzystają z nieautoryzowanych urządzeń – mówi Arton Brand, CTO CTERA, autor rozwiązania.

System do wykrywania ataków nie bazuje na sygnaturach, lecz stosuje mechanizmy sztucznej inteligencji rozumiejące  istotę funkcjonowania oprogramowania ransomware. Jego działanie polega na wykrywaniu i blokowaniu ataków zwykle w okresie krótszym niż 30 sekund. Funkcja działa zaraz po uruchomieniu i nie uczy się tygodniami wzorców występujących w sieci użytkownika. Nie wymaga też żadnego szkolenia po stronie klienta.

Dwie pozostałe nowinki to cloud storage routing i unifikacja plików oraz obiektów. Pierwsza z wymienionych funkcjonalności pozwala korzystać z usług wielu dostawców storage’u w chmurze i lokalnych systemów obiektowej pamięci masowej. Z kolei ujednolicona obsługa plików i obiektów jest wyjściem na przeciw oczekiwaniom firm w zakresie analizy danych.

S3 stał się w zasadzie standardowym protokołem dla potoków danych do automatyzacji i analityki danych. Istnieje wiele aplikacji, zwłaszcza w chmurze, które wykorzystują S3 i nie współpracują z protokołami SMB i NFS. Prawdopodobnie jesteśmy pierwszym dostawcą w tym segmencie rynku, który rozwiązuje ten problem – wyjaśnia Oded Nagel.