Analitycy wręcz prześcigają się w prognozach wzrostu rynku edge computingu. IDC przewiduje, że inwestycje w przetwarzanie brzegowe do 2024 r. będą zwiększać się co roku średnio o 12,5 proc., osiągając globalnie ponad 250 mld dol., z tego 70 mld dol. w regionie EMEA. Zdaniem analityków klienci najwięcej przeznaczą na usługi (46 proc.), zaś nieco mniej na sprzęt (32 proc.) i oprogramowanie (22 proc.). Z kolei zdaniem MarketsandMarkets wartość rynku edge computingu wzrośnie niemal 5-krotnie w ciągu 5 lat. Szybki rozwój edge computingu to swego rodzaju kolejny etap przenoszenia przetwarzania coraz bliżej użytkowników infrastruktury IT. Ilustracją tego trendu są inwestycje globalnych dostawców chmury w lokalne i regionalne centra danych.

Według IDC produkcja i usługi profesjonalne to branże, które będą wydawać najwięcej na przetwarzanie brzegowe w ciągu najbliższych kilku lat. Z kolei wyjątkowo szybkiego wzrostu wydatków na ten cel spodziewać się można w handlu detalicznym.

– Przetwarzanie na krawędzi infrastruktury pojawi się najszybciej tam, gdzie natychmiast przyniesie nową wartość – twierdzi Wojciech Janusz, Senior System Engineer w Dell Technologies.

Generalnie, jak wynika z komentarzy dostawców i integratorów, przetwarzanie brzegowe jest i będzie funkcjonować w miejscach, gdzie kluczowe znaczenie ma szybkość przetwarzania danych w czasie rzeczywistym (np. analityka w monitoringu wideo).

Kolejnym obszarem, gdzie sprawdzają się rozwiązania brzegowe, jest konieczność gromadzenia informacji lokalnie, aby następnie przesyłać je dalej, do data center lub chmury, przy czym z różnych względów nie można ich transferować w całości (chociażby ze względów proceduralnych czy bezpieczeństwa). Są więc poddawane wstępnej obróbce na miejscu, a następnie przefiltrowane, skompresowane i dopiero wtedy przekazywane do głównego data center. Ma to miejsce między innymi w przypadku analizy informacji przemysłowych IoT czy telemetrii pojazdów i maszyn.

Liczy się pomysł

Zdaniem ekspertów największe zapotrzebowanie na rozwiązania brzegowe generuje przemysł, gdzie w ramach konkretnego projektu klient stosunkowo łatwo może dostrzec korzyści wynikające z wdrożenia, w tym związane ze wzrostem wydajności bądź spadkiem kosztów operacyjnych. Z drugiej strony, jak wynika między innymi z doświadczeń Sebastiana Zasiny ze Schneider Electric, zapytania o rozwiązania brzegowe spływają do dostawców z rozmaitych sektorów gospodarki. W zasadzie bowiem każda branża może być dobrym miejscem na wdrożenie edge computingu, jeśli tylko dział informatyczny czy integrator ma na to sensowny pomysł.

– Obserwujemy, że nowe technologie wykorzystywane są w praktycznych zastosowaniach, przykładowo w ramach 5G do monitorowania urządzeń w terenie oraz w projektach związanych ze zmianą modelu pracy w czasie pandemii, jak budowa lub odświeżanie rozwiązań VDI – potwierdza Maciej Toroszewski, Advisory & Professional Services Manager w HPE.

Rosnącego zapotrzebowania na edge computing można spodziewać się także w sektorze finansowym (do przetwarzania danych gromadzonych za pośrednictwem aplikacji, bankomatów i kiosków), w ochronie zdrowia (co pozwoli na szybki dostęp do krytycznych danych pacjentów) i – jak już wspomnieliśmy – w handlu detalicznym (poprawia doświadczenia klientów, zwiększa wydajność operacyjną i bezpieczeństwo). W tym ostatnim przypadku dobrym przykładem jest projekt dla jednej z firm, która otwierała punkty sprzedaży w galeriach handlowych. Niektóre z generowanych w nich danych wymagały szybkiego przetworzenia, tymczasem klient miał do dyspozycji tylko jedną centralną serwerownię i łącza internetowe, które nie zawsze spełniały jego wymagania. Jeden z integratorów stworzył więc na potrzeby klienta rozproszoną infrastrukturę w wielu lokalizacjach, która wymagała synchronizacji z centralnym ośrodkiem w celu raportowania czy backupu. Wystarczyło, że takie transfery ze skraju do chmury były wykonywane raz na dobę.

Przetwarzanie brzegowe zastosowano także u jednego z producentów gier. Jak stwierdził anonimowo jego przedstawiciel: „chmura to fajna rzecz, nie stanowi jednak odpowiedzi na specyficzne wymagania”. W tym przypadku developer postawił na przetwarzanie brzegowe, ponieważ korzystanie z chmury publicznej po analizie TCO okazało się nieopłacalne. „Postawiliśmy na infrastrukturę brzegową, bo biorąc pod uwagę duże wolumeny danych, jakie są przetwarzane dobowo przy produkcji gier klasy AAA oraz koszty transferów z chmury, oparcie infrastruktury wyłącznie o cloud nam się nie opłaca. Zresztą ewentualna migracja do chmury publicznej wymagałaby też zmiany procesów, co pociągnęłoby za sobą dodatkowe koszty”  – tak tłumaczy motywy firmy.

*Według Macieja Toroszewskiego, Advisory & Professional Services Managera w HPE

Internet rzeczy impulsem

Rozwój infrastruktury edge wiąże się z Internetem rzeczy. Infrastruktura brzegowa jest wręcz niezbędna do przetwarzania, analizy i zwiększenia bezpieczeństwa informacji spływających z czujników i urządzeń IoT. Rozproszone przetwarzanie zapewnia większe bezpieczeństwo w sytuacji, gdy stale rosnąca ilość takich urządzeń w sieci zwiększa ryzyko ataku.

– Często wykorzystywane przetwarzanie w chmurze jest scentralizowane, więc bardzo podatne na ataki DDoS i przestoje. Edge computing rozdziela przetwarzanie na konkretne urządzenia i lokalizacje. Może również filtrować poufne informacje, przesyłając tylko dane niewrażliwe do dalszego przetwarzania, aby zachować najwyższy poziom bezpieczeństwa – tłumaczy Przemysław Prochera, Business Development Manager w Stovarisie.

Niezależnie od celów biznesowych, klienci oczekują od brzegowej infrastruktury tego, do czego przyzwyczaili się korzystając z klasycznego data center albo usług chmurowych, czyli dużej wydajności, możliwości korzystania z szerokiego zakresu usług i aplikacji oraz ich łatwego wdrażania, a przy tym prostoty zarządzania, jak również wysokiego poziomu bezpieczeństwa. Tymczasem cały ten pakiet życzeń nie zawsze jest możliwy do spełnienia.

– Coraz więcej klientów oczekuje kompletnego i łatwego w implementacji rozwiązania brzegowego. Potrzeby te spełniają miniaturowe centra danych, w jednej szafie mieszczące serwery, pamięć masową, urządzenia sieciowe, w komplecie z UPS i chłodzeniem – mówi Krzysztof Krawczyk, IT Solutions Sales Manager Eastern Europe w Vertivie.

Klienci stawiają dostawcom i integratorom również coraz wyższe wymagania dotyczące mocy obliczeniowej, jaką należy dostarczyć do odległych lokalizacji. Takie oczekiwanie jest związane z coraz powszechniejszą analityką wideo w czasie rzeczywistym.

– By to osiągnąć potrzeba zaawansowanych kart akceleracji i stosunkowo dużo mocy obliczeniowej, ale umieszczonej w niewielkiej obudowie i jednocześnie z minimalnymi wymaganiami dotyczącymi warunków środowiskowych – zaznacza Wojciech Janusz.

Zdaniem specjalisty

Wojciech Janusz, Senior System Engineer, Dell Technologies Wojciech Janusz, Senior System Engineer, Dell Technologies  

Klienci przez lata przyzwyczaili się do jakości usług IT, bezpieczeństwa, łatwości zarządzania oraz szybkości komunikacji znanych z centralnych ośrodków przetwarzania. Teraz oczekują tego samego na krawędzi infrastruktury, nierzadko w miejscach, w których nie ma fizycznej serwerowni, odpowiedniego chłodzenia, a szerokopasmowe połączenie do sieci jest luksusem. Często wskazywaną potrzebą jest też łatwość implementacji nowych aplikacji, wprowadzanie zmian oraz zarządzanie informacjami, które stają się krytyczne ze względu na mocno ograniczone zasoby sprzętowe.

  
Krzysztof Krawczyk, IT Solutions Sales Manager Eastern Europe, Vertiv Krzysztof Krawczyk, IT Solutions Sales Manager Eastern Europe, Vertiv  

Wraz z upowszechnianiem się nowych technologii – inteligentnych sklepów, autonomicznych samochodów, sieci 5G, robotyzacji – wzrośnie zapotrzebowanie na sprzęt IT, które stanowi dla nich wsparcie. Przy czym serwery, pamięć masowa i urządzenia sieciowe muszą być blisko odbiorcy końcowego. W niektórych sektorach pandemia zahamowała ten trend, gdyż towary kupowano online, a ludzie unikali przemieszczania się, ale w niektórych z kolei przyspieszyła, bo powstało większe zapotrzebowanie na ruch sieciowy. Liczymy, że wkrótce nastąpi znaczące przyspieszenie popytu na rozwiązania brzegowe i nadrobimy zaległości z poprzednich kwartałów.

  
Sebastian Zasina, Data Center Solution Architect, Schneider Electric Sebastian Zasina, Data Center Solution Architect, Schneider Electric  

Widzimy tendencję do unifikacji rozwiązań. Klient decydując się na wdrażanie projektu edge computingu w wielu lokalizacjach, stara się przyjąć rozwiązanie, które będzie mogło być powtarzane w różnych miejscach. Upraszcza to późniejszy serwis i obsługę. Ze względu na to, że punkty przetwarzania brzegowego często są bezobsługowe, szczególny nacisk jest kładziony na zdalne monitorowanie infrastruktury i zarządzanie nią. Istotne jest zapewnienie odpowiednich warunków środowiskowych – serwery muszą być zabezpieczone przed pyłem, wilgocią i, generalnie, uszkodzeniem.

  
Przemysław Prochera, Business Development Manager, Stovaris Przemysław Prochera, Business Development Manager, Stovaris  

Szybkość, poziom bezpieczeństwa, koszt i skalowalność to kluczowe czynniki związane z przetwarzaniem brzegowym, na które zwracają uwagę klienci. Edge computing zmniejsza ogólny ruch sieciowy danej firmy, co poprawia wydajność aplikacji i usług. Trend, jaki obecnie występuje na rynkach zachodnich, to dodawanie inteligentnych rozwiązań na krawędzi, na przykład z funkcją smart out-of-band. Zapewnia ona alternatywną ścieżkę do urządzeń w odległych lokalizacjach, nawet gdy sieć podstawowa ulegnie awarii. Dzięki temu mamy gwarancję stałego dostępu do infrastruktury brzegowej w celu zapewnienia ciągłości biznesowej.

  

Nie brak wyzwań i problemów

Wyzwań i problemów, z jakimi muszą sobie radzić integratorzy w projektach edge computingu, jest więcej. Wynikają one z wymagań dotyczących przetwarzania brzegowego. Jednym z podstawowych jest przeniesienie doświadczenia klienta z głównego miejsca przetwarzania, czyli centrum danych lub chmury, do miniaturowego lokalnego ośrodka.

– Bezpieczeństwo cyfrowe i fizyczne, wydajność, wymogi środowiskowe, czasy odpowiedzi… to wszystko mocno odbiega od tego, do czego przyzwyczaiła nas chmura czy lokalne data center – przyznaje Wojciech Janusz.

Problemem jest choćby infrastruktura sieciowa odbiegająca od potrzeb nowoczesnych aplikacji, które wymagają przesyłania dużej ilości danych. Sytuację tę poprawią sieci nowej generacji, takie jak 5G, ale nie rozwiąże to w pełni problemu, szczególnie w bardzo odległych lokalizacjach. Swoją drogą, korporacyjne sieci 5G to zresztą kolejny czynnik rozwoju rynku – będą wymagały dużej mocy obliczeniowej, a przetwarzanie brzegowe ułatwi im poradzenie sobie z obciążeniem.

Kolejnym częstym problemem jest brak odpowiednich pomieszczeń dla infrastruktury brzegowej.

– W mojej ocenie to największe wyzwanie w projektach. Nikt nie przewidywał potrzeby takiej gęstości upakowania węzłów obliczeniowych. W rezultacie mamy do dyspozycji małe i niedostosowane pomieszczenia. Integratorzy nie są w stanie w prosty sposób dostosować je do potrzeb małej serwerowni– zauważa Krzysztof Krawczyk.

Tutaj rozwiązaniem problemu mogą być mikroserwerownie, mieszczące w sobie rack serwery, storage, chłodzenie i inne niezbędne komponenty w każdym, także miniaturowym centrum danych.

     Dla integratorów projekty brzegowe są atrakcyjne ze względu na liczbę lokalizacji, których będzie przybywać. Chociaż u jednego klienta wdrażane są czasem tylko pojedyncze urządzenia, to taką małą infrastrukturę można implementować w dziesiątkach i setkach miejsc. Obszarem, w którym integratorzy mogą wesprzeć swoimi kompetencjami klientów w projektach edge’owych, jest choćby zasilanie.

– W warstwie infrastruktury fizycznej problemem czasem może być zorganizowanie odpowiedniego zasilania. Klient woli takie rzeczy zostawić inwencji i doświadczeniu integratora – twierdzi Sebastian Zasina.

Integrator może świadczyć jednocześnie serwis zasobów IT i infrastruktury fizycznej. Dla klienta zaletą jest to, że firma projektowa jest w takim układzie jednym punktem kontaktowym w sprawie zapewniania ciągłości działania infrastruktury.

– Bezpieczeństwo jest i będzie kluczowe w rozproszonych konfiguracjach. Dlatego ważne jest, aby rozwiązania brzegowe stawiały na bezpieczeństwo danych – podsumowuje Maciej Toroszewski.

Zdaniem integratora

Paweł Bojko, członek zarządu, IBC Group  

Rozwiązania przetwarzania brzegowego to nic nowego. Wzrost zapotrzebowania obserwowaliśmy już w minionych latach. Moim zdaniem popyt na edge computing nadal będzie się zwiększał, szczególnie w lokalizacjach, gdzie występuje konieczność przetwarzania danych w czasie rzeczywistym, a także ze względów kosztowych i większego bezpieczeństwa rozproszonego systemu. Przykładem jest zarządzanie inteligentnymi budynkami, smart home, hale magazynowe, jak też rozwiązania IT w medycynie, chociażby na potrzeby diagnostyki obrazowej.