Centra danych: do chmury wciąż za daleko
Nieustanna cyfryzacja przedsiębiorstw spowodowała, że potrzebują one bardzo szybkiego dostępu do swoich danych. Tym samym usługi chmurowe nie stanowią dla nich alternatywy ze względu na występujące w ich przypadku opóźnienia. Dlatego już wkrótce wiele firm będzie musiało dysponować własnymi mikrocentrami danych.
Na świecie powstaje coraz więcej mikrocentrów danych.
Wartość globalnego rynku usług świadczonych przez centra danych nieustannie rośnie. Agencja Mordor Intelligence oszacowała ją na 48,9 mld dol. w 2020 r., a jednocześnie prognozuje, że do 2026 r. wzrośnie ona ponad dwukrotnie – do 105,6 mld dol. Przyczyn tej sytuacji jest kilka. Najważniejszą jest digitalizacja istniejących procesów oraz znaczący wzrost liczby małych i średnich firm, które korzystają z cyfrowych rozwiązań. To samo w coraz większym stopniu dotyczy także sektora przemysłowego, gdzie wdrażane są mechanizmy uczenia maszynowego, bądź projekty Internetu Rzeczy. Na to wszystko nakłada się coraz bardziej popularna w skali globalnej praca zdalna.
Nie bez powodu więc w strategii działania największych dostawców usług chmurowych i hostingowych na tym rynku, takich jak Amazon Web Services, Microsoft Azurei Google Cloud Platform, na stałe zagościło słowo „hiperskalowalność”. Ponieważ tacy operatorzy kontrolują połowę branży centrów danych, konieczne było zastosowanie specjalnego podejścia, gwarantującego optymalne wykorzystanie zasobów.
Ciekawostką jest przy tym fakt, że – w pewnym sensie wbrew nazwie – takie centra danych nie zawsze charakteryzują się olbrzymią wielkością, a raczej sposobem organizacji przetwarzania danych. I to pod wieloma względami, w tym zapotrzebowania na moc obliczeniową, przestrzeń dyskową, przepustowość łączy sieciowych, ale także kwestie ekologiczne (w celu zmniejszenia wydzielania ciepła lub bardziej efektywnej dystrybucji energii).
W Polsce obiekty o takiej skali działania oczywiście raczej nie będą powstawać. Tajemnicą poliszynela jest fakt, że AWS, Microsoft i Google, wprowadzając na polski rynek swoje usługi chmurowe, podpisali z polskimi liderami rynku centrów danych wieloletnie i restrykcyjne umowy hostingowe i/lub kolokacyjne (przy czym wszystkie strony, pytane o ten fakt, nabierają wody w usta…). Jednak polscy klienci nadal są niechętni usługom chmurowym, być może więc w ich gusta trafi nowy trend obserwowany już na globalnym rynku centrów danych.
Obliczenia na brzegu
Gdy usługi świadczone w dużych publicznych chmurach obliczeniowych zyskiwały na popularności, ich dostawcy kreślili wizje, że wkrótce będzie to jedyny model przetwarzania danych. Użytkownicy prywatni i biznesowi mieli dysponować wyłącznie różnego typu terminalami (począwszy od urządzeń mobilnych, poprzez stacjonarne, aż po duże ekrany telewizorów), za pomocą których będą łączyć się z zasobami w chmurze. O ile koncepcja ta sprawdziła się w przypadku niektórych rodzajów zastosowań, głównie tych, gdzie w grę wchodzi długotrwały streaming danych (backup, odtwarzanie dźwięku czy obrazu), tak na potrzeby obliczeń „wrażliwych” na czas dostępu konieczne okazało się szukanie alternatywy dla chmury.
Od tego momentu producenci rozwiązań dla centrów danych rozpoczęli konsekwentne promowanie hasła „edge”, wskazującego, że to właśnie na brzegu sieci i środowiska IT, a nie w jego rdzeniu, są tworzone lub pozyskiwane dane, jak też w bardzo dużym stopniu przetwarzane. Do takiego stanu przyczynia się rosnąca liczba urządzeń klienckich i różnego typu sensorów odpowiedzialnych za wytworzenie olbrzymiej masy pakietów, z których każdy zawiera relatywnie niewielką ilość danych. Przy nadal obserwowanych opóźnieniach łączy internetowych niewielki jest sens nieustannego przesyłania ich w czasie rzeczywistym do odległych centrów danych. Pojawiła się więc koncepcja, aby moc obliczeniową centrów danych „przyciągnąć” do miejsca, gdzie te dane są wytwarzane.
W efekcie na świecie powstaje coraz więcej mikrocentrów danych. Niektóre wręcz można określić mianem mobilnych – sprzęt zainstalowany jest w kontenerze przewożonym przez ciężarówkę, wyposażonym we własny system chłodzenia, zasilania i sprzęt do tworzenia kopii zapasowych. Takie podejście ma sens chociażby w przypadku obsługi dużych imprez sportowych lub koncertów. Tego typu rozwiązanie może również wyeliminować problemy z łącznością w odległych miejscach.
– W ramach projektu edge computing mogą być wdrażane różne systemy, nie tylko serwery. Część z nich to specjalistyczne urządzenia do zbierania i przetwarzania danych, przeznaczone do pracy w nietypowych warunkach. Znajdują one zastosowanie w przemyśle, handlu czy placówkach ochrony zdrowia. Wiele z nich musi być odpornych na warunki zewnętrzne, takie jak ciepło, zimno albo zapylenie. Często pracują w połączeniu z rozmaitymi czujnikami i urządzeniami, z którymi łączą się wykorzystując specyficzne dla nich protokoły przewodowe i radiowe. Poważnym odbiorcą technologii związanych z edge są firmy telekomunikacyjne, wdrażające je w pobliżu anten 5G – mówi Kajetan Mroczek, Senior Systems Engineer w Dell EMC.
W jego opinii, wybierając konkretną linię produktów do projektu edge computing, warto zwrócić uwagę, czy aby klient nie posiada już innych rozwiązań danego producenta. Istnieje bowiem duża szansa, że będzie można zarządzać nimi za pomocą tych samych narzędzi, które służą do obsługi klasycznej infrastruktury serwerowej. Ta spójność ma olbrzymie znaczenie dla klienta, bo zapewnia mu oszczędność kosztów na szkoleniach dla informatyków lub wręcz eliminuje konieczność zatrudniania dodatkowego personelu. Do wdrażania projektów infrastruktury muszą natomiast przygotować się integratorzy.
– Ważne jest, aby partner miał ogólną wiedzę o tego typu systemach oraz doświadczenie we współpracy z klientami z różnych branż, dzięki czemu będzie potrafił „nałożyć” na ich specyficzny świat procedury związane z przepływem informacji do centrum danych lub chmury. Stosowane w wielu przedsiębiorstwach urządzenia IoT czy różnego typu czujniki zazwyczaj generują dane niezrozumiałe dla systemów IT, trzeba więc umieć je odczytać, przekonwertować, a następnie w odpowiedni sposób przekazać do przetwarzania i ewentualnej dalszej analizy, na przykład statystycznej – mówi Maciej Kalisiak, Country Innovation Lead w polskim oddziale HPE.
Dodaje przy tym, że producent ten szuka obecnie partnerów, którzy mając kontakt z potencjalnymi klientami, nie muszą mieć doświadczenia we wdrażaniu projektów edge computing. HPE deklaruje pomoc na każdym etapie realizacji kontaktu, a jednocześnie chętnie podejmuje współpracę z integratorami, którzy mają specjalistyczną wiedzę, w tym dotyczącą analizy obrazu czy systemów przemysłowych.
Ilość sprzętu i oprogramowania w centrach danych, z którym trzeba sobie poradzić wraz ze wzrostem skali przetwarzanych informacji, będzie znacznie przewyższać możliwości pracowników. Dlatego operatorzy tego typu obiektów pokładają nadzieję w robotyce, która może okazać się bardzo wartościowym narzędziem już w niedalekiej przyszłości, umożliwiając przy tym obniżenie kosztów chłodzenia i eksploatacji.
Przykładów z ostatnich lat mamy już kilka. IBM eksperymentował z wędrującymi po wnętrzu centrum danych odkurzaczami Roomba, które wyposażone zostały w czujniki monitorujące temperaturę i wilgotność. Kilka lat temu AOL zbudowało skromne centrum danych, którego bieżąca obsługa nie wymagała żadnych pracowników. Z kolei Google wykorzystał roboty przemysłowe do zautomatyzowania procesu usuwania z macierzy zużytych lub uszkodzonych twardych dysków w tempie szybszym niż mógłby to zrobić człowiek.
Dzięki automatyzacji centrów danych możliwe staje się zarządzanie rutynowymi codziennymi czynnościami związanymi z monitorowaniem środowiska IT, jego konserwacją i zapewnianiem ciągłości biznesowej bez udziału personelu. W szafach i serwerach coraz częściej stosowane są czujniki środowiskowe, które umożliwiają śledzenie wielu krytycznych aspektów infrastruktury za pomocą oprogramowania. To powoduje, że już wkrótce będzie można wyjść poza typowe zarządzanie infrastrukturą i wdrożyć mechanizmy zarządzające, bazujące między innymi na sztucznej inteligencji.
Podobne artykuły
Raportowanie ESG: nadzieja w dystrybutorach?
W związku z nieprzejrzystością i wysokim poziomem złożoności regulacji dotyczących raportowania ESG, kwestię wykształcenia dobrych praktyk w tym zakresie wzięli na siebie niektórzy dystrybutorzy.
Rittal standaryzuje zewnętrzne szafy sterownicze
Rittal zaprezentował CS Toptec — nową wersję obudów zewnętrznych szaf sterowniczych z możliwością łączenia i elastycznym montażem.
TP-Link: czas na Wi-Fi 7
Standard Wi-Fi 7 wprowadza komunikację na wielu pasmach jednocześnie, w tym w nowym niezatłoczonym paśmie 6 GHz, co gwarantuje bardzo dużą przepustowość i pojemność sieci.