Niemal połowa firm produkcyjnych wiąże duże oczekiwania z analityką Big Data – 47 proc. uważa, że będzie ona miała ogromny wpływ na wydajność ich przedsiębiorstw, stanowiąc podstawę fabryk przyszłości. Z kolei 49 proc. oczekuje, że efekty analizy wielkich zbiorów danych zmniejszą koszty operacyjne i przyczynią się do efektywniejszego wykorzystywania zasobów – według badania Pierfrancesco Manenti 

Przydatność takich systemów i co za tym idzie rosnące wymagania klientów opisuje badanie „LNS Research i MESA International 2013-2014”, które dowodzi, że analityka Big Data u 46 proc. firm poprawiła planowanie produkcji, a u 45 proc. pomogła prawidłowo ocenić wyniki przedsiębiorstwa. Z kolei według 39 proc. respondentów  umożliwiła szybsze wsparcie i serwisowanie klientów, a 38 proc. zwróciło uwagę na przydatność alertów w czasie rzeczywistym na podstawie aktualnych danych z procesów produkcji. Co więcej, 36 proc. ankietowanych chwali sobie odpowiednią korelację wyników produkcyjnych i biznesowych oraz możliwość porównywania wyników kilku zakładów, a 31 proc. zwraca uwagę na możliwość modelowania planów predykcyjnych, a 30 proc. wskazuje na poprawę współpracy z dostawcami. 

Wygląda na to, że wkrótce sprawna analityka Big Data będzie decydować o być albo nie być w biznesie. Ashley Stirrup, Chief Marketing Officer w firmie Talend, prognozuje, że w 2017 r. 1 na 10 przedsiębiorstw z głównego amerykańskiego indeksu giełdowego S&P 500 straci swoją pozycję z powodu opieszałości w cyfryzacji i wdrażaniu analityki Big Data. 

Podobnego zdania są eksperci IDC, którzy mówią wprost: w cyfrowej gospodarce sukces odniosą te firmy, które nie tylko zbudują efektywne rozwiązania przepływu i gromadzenia danych, lecz także zyskają zdolność ich monetyzacji. 

Np. fabryka generuje około 4 bln próbek informacji rocznie. Ich zgromadzenie niewiele da. Dopiero analiza i w konsekwencji monetyzacja pozwoli np. na eliminację przestojów. Będzie to możliwe dzięki odpowiedniej synchronizacji procesów oraz nieprzerwanemu dostępowi do wszystkich podzespołów, produktów czy surowców.
 
Jednak aby spełnić duze oczekiwania klientów względem analizy Big Data, potrzebne są odpowiednie narzędzia. Formuły zbierania danych i raportowania przy pomocy Excela, systemów ERP czy też tradycyjnych systemów BI są zawężone do niewielkich zbiorów. Nie pozwalają zagłębiać się w dane, nie mają odpowiednich algorytmów analitycznych, są wrażliwe na błędy użytkownika. Największym problemem jest jednak to, że dane w większości przypadków nie są powiązane asocjacyjnie (procesami kojarzenia informacji). 

Nowsze oprogramowanie analityczne cechuje większa szybkość generowania raportów, łatwość dostosowania ich do indywidualnych potrzeb, możliwość swobodnego zagłębiania się w dane oraz rozbudowanymi możliwościami analizy i wizualizacji. 

„Dotychczas analizowano tylko niektóre dane, które pod względem przydatności znajdowały się na samym czubku piramidy. Działo się tak dlatego, że proces gromadzenia i przetwarzania takich informacji był żmudny i kosztowny, brakowało odpowiednich narzędzi pomiarowych, magazynujących, porządkujących czy analitycznych. Dziś sytuacja jest inna. Nowoczesne systemy mogą nie tylko zbierać dane o dużej objętości, dużej zmienności lub dużej różnorodności i rozdzielczości, lecz także przeprowadzają ich analizy” – tłumaczy Grzegorz Pawłowski z firmy DSR.