Wielkie zbiory danych: wyścig z czasem
Rosną oczekiwania instytucji finansowych oraz platform e-commerce w zakresie przetwarzania i analizy danych. Startupy działające w tym segmencie rynku mają zatem szerokie pole do popisu.
Analityka w czasie rzeczywistym jest kluczowa w wielu branżach.
Startupy zza oceanu rzadko mają na swoich listach referencyjnych firmy, które są znane głównie z działalności na polskim rynku. W tego typu zestawieniach zazwyczaj pojawiają się użytkownicy ze Stanów Zjednoczonych i największych krajów Europy Zachodniej, głównie Niemiec, Wielkiej Brytanii i Francji. Nieco inaczej wygląda to w przypadku amerykańskiej firmy Alation. Wprawdzie obsługuje globalne koncerny w rodzaju Cisco, LinkedIna czy Pepsico, ale do grona jej klientów zalicza się również Allegro i sieć sklepów Żabka. Startup z Kalifornii opracowuje oprogramowanie do zarządzania i katalogowania danych bazujące na trzech elementach: analizie behawioralnej, przetwarzaniu języka naturalnego (NLP) oraz uczeniu maszynowym. System automatycznie indeksuje wszystkie dane należące do firmy i analizuje, w jaki sposób posługują się nimi pracownicy. Alation wzoruje się na algorytmie Page Rank Google, mierzącym popularność witryny na podstawie liczby prowadzących do niej odsyłaczy.
– Bez sztucznej inteligencji i uczenia maszynowego postęp w klasyfikowaniu, zarządzaniu i rozumieniu dużych ilości danych jest niemożliwy. Dlatego opracowaliśmy platformę wykorzystującą obie technologie. Idea polega na usprawnieniu zarządzania metadanymi, aby lepiej wspierać użytkowników przeszukujących duże zbiory danych w celu generowania informacji lub wyszukiwania dokumentów – tłumaczy Satyen Sangani, CEO i współzałożyciel Alation.
Według branżowych analityków przyszłość zarządzania danymi należy do inteligentnych narzędzi. Co to oznacza w praktyce? Alation zalicza do tej kategorii systemy, które potrafią dostarczyć żądane dane do odpowiednich osób, w należytym czasie, celu i we właściwym kontekście. Tego typu rozwiązania wychodzą naprzeciw wyzwaniom, jakie niesie ze sobą proces cyfrowej transformacji.
Satyen Sangani zwraca uwagę na cztery zjawiska, które utrudniają w obecnych czasach pracę z danymi: migrację do chmury, wysyp systemów BI i różnorodnych baz danych, jak też zmiany na rynku pracy i uwarunkowania prawne, w tym RODO czy CCPA. Jednocześnie dodając, że zastosowanie odpowiednich rozwiązań z jednej strony eliminuje chaos, z drugiej zaś zapewnia pracownikom łatwy dostęp do narzędzi analitycznych.
Warto dodać, że w październiku ubiegłego roku Alation przejął startup Lyngo Analytics. Dzięki temu zakupowi użytkownicy mogą wyszukiwać informacje poprzez zadawanie pytań przy użyciu prostych zdań, bowiem sztuczna inteligencja i technologia uczenia maszynowego Lyngo Analytics przekształca pytania w języku naturalnym w zapytania SQL. Jest to zgodne z filozofią Alation, które chce wspierać pracowników w poszukiwaniu odpowiednich zasobów cyfrowych bez udziału pośredników, jak programiści lub specjaliści od baz danych.
In-Memory Data Grid
Ilość, a także tempo przetwarzania informacji powodują, że relacyjne bazy danych zaczynają nie nadążać za potrzebami co bardziej wymagających użytkowników. Ci ostatni coraz częściej spoglądają w kierunku technologii In-Memory Data Grid, zapewniającej obsługę tysięcy operacji na sekundę. Jest to system złożony z kilku magazynów współużytkujących między sobą dane. In-Memory Data Grid nie ogranicza się do przechowywania danych, ale umożliwia też wykonywanie na nich operacji. Dane przechowywane w takich magazynach są reprezentowane jako obiekty i przechowywane w pamięci operacyjnej, co zwiększa w znacznym stopniu czas dostępu.
Przykładem bazy In-Memory Data Grid jest projekt open source Hazelcast, notabene tę samą nazwę nosi startup z San Mateo, zarabiający na komercyjnych wdrożeniach. Niedawno firma zaprezentowała piątą wersję platformy składającej się z Hazelcast IMDG, magazynu danych, który przyspiesza przechowywanie, pobieranie i modyfikację danych, a także Hazelcast Jet – silnika do przetwarzania strumieniowego. Startup ten po raz pierwszy zintegrował oba narzędzia w pojedynczą platformę.
– Klienci nie chcą działać na bazie tego, co wydarzyło się wczoraj, lecz zgodnie z tym, co dzieje się obecnie. To wymaga nowej, ściśle zintegrowanej kombinacji technologii. Analitycy Gartnera dostrzegają zjawisko, które określają jako kolizję kilku z nich, w tym przesyłania strumieniowego i przetwarzania w pamięci. Ich spostrzeżenia są tożsame z tym, co zauważamy u naszych klientów – tłumaczy Kelly Herrell, CEO Hazelcast.
Wraz z wdrażaniem na dużą skalę czujników IoT, przedsiębiorstwa stają przed koniecznością stosowania analityki w czasie rzeczywistym, uczenia maszynowego i algorytmów AI. Dlatego, oprócz przechowywania danych w pamięci, Hazelcast dostarcza platformę, która wydobywa cyfrowe informacje w miarę ich tworzenia.
– Chcemy, aby platforma Hazelcast stała się ostatnią warstwą przechowywania i przetwarzania danych dla aplikacji czasu rzeczywistego, zarówno transakcyjnych, wsadowych, jak i strumieniowych – mówi David Brimley, wiceprezes Hazelcast.
Analityka w czasie rzeczywistym odgrywa kluczową rolę w wielu branżach, w tym między innymi w opiece zdrowotnej, usługach finansowych, produkcji i reklamie, gdzie nawet niewielkie zmiany danych mogą mieć wpływ na finanse, zdrowie czy bezpieczeństwo.
Jednym z użytkowników platformy Hazelcast w Polsce jest BNP Paribas Bank. Firma zdecydowała się na jej wdrożenie, aby zwiększyć sprzedaż produktów. Szefowie banku byli szczególnie niezadowoleni z konwersji, czyli procentowego udziału osób, które weszły na stronę i dokonały jakiejkolwiek transakcji. BNP Paribas stworzył program umożliwiający dostosowywanie ofert kredytowych w czasie rzeczywistym, co zwiększyło wskaźnik konwersji o 400 proc. Gdyby nie zastosowanie Hazelcast, obsługa tego typu aplikacji byłaby niemożliwa.
Podobne artykuły
Sztuczna inteligencja w czterech odsłonach
Startupy bardzo szybko adaptują w swoich rozwiązaniach sztuczną inteligencję. Co ważne, większość z nich nie robi tego, aby nadążać za modą, lecz zwiększać funkcjonalność produktów.
Sztuczna inteligencja najlepszym przyjacielem danych
W ciągu ostatnich kilku lat niemal wszystkie organizacje zgromadziły ogromne zbiory danych. Samo przechowywanie i zarządzanie nimi to za mało, bowiem z informacji, o ile ma być przydatna, trzeba wyciągnąć określoną wartość.
Wszechobecne dane źródłem kłopotów
Cykl życia danych nigdy wcześniej nie był bardziej złożony. Powodem jest nie tylko ich ciągły przyrost, ale również „przemieszczanie się” po wielu różnych środowiskach.