Żeby nie było jak z Odrą…

W zarządzaniu (także zdalnym) i zapewnianiu niezawodności infrastruktury centrum danych kluczowy jest monitoring parametrów pracy i alarmów aparatury obiektowej, zwłaszcza elementów składowych systemów dystrybucji energii i klimatyzacji. Duży nacisk kładzie się też na kontrolowanie warunków środowiskowych, zwłaszcza temperatury i wilgotności. Niekorzystne zmiany tych parametrów mogą być pierwszym sygnałem, że w centrum danych narasta problem z jego wydajnością, a w konsekwencji – niezawodnością.

– Sytuacja związana ze skażeniem Odry pokazała, jak ograniczoną wiedzę na temat niektórych zjawisk posiadamy, gdy nie są prawidłowo monitorowane. Podobnie może być w centrum danych, gdzie bez informacji, co się dzieje, możemy przegapić ważne symptomy nadchodzącej katastrofy – mówi Krzysztof Krawczyk, IT Solutions Sales Manager CEE w Vertivie.

Przykładowo, wykrycie rosnących prądów upływu może świadczyć o tym, że wkrótce któryś z zasilaczy urządzeń IT ulegnie awarii. Jeśli będzie to miało wpływ tylko na ten jeden serwer, to możemy mówić o szczęściu. W gorszym scenariuszu może zdarzyć się, że spowoduje to pożar, a tym samym znacznie większe szkody. Panujące trendy wskazują wyraźnie, że bez wiedzy, co się dzieje w centrum danych, nie mamy szans poprawnie nim zarządzać.

Warunki funkcjonowania centrów danych są najczęściej określone przez umowy SLA (Service Level Agreement), które opisują jakość usług świadczonych albo wewnętrznym użytkownikom przedsiębiorstwa (z centrali firmy oraz jej oddziałów), albo zewnętrznym partnerom biznesowym i klientom. W zapewnianiu zagwarantowanego poziomu takich usług kluczowym elementem staje się stałe monitorowanie i zarządzanie centrum danych przy użyciu narzędzi z obszaru DCIM (Data Center Infrastructure Management).

Rozwiązania DCIM monitorują zasoby centrum danych i zarządzają ich wykorzystaniem, w tym zużyciem energii przez cały sprzęt IT (serwery, pamięci masowe, przełączniki sieciowe). Kontrolują komponenty fizycznej infrastruktury, takie jak zasilacze awaryjne (UPS), jednostki dystrybucji zasilania (PDU) i klimatyzatory precyzyjne dla serwerowni (CRAC). Narzędzia DCIM mają pomóc administratorom osiągnąć maksymalną efektywność energetyczną i zapobiec problemom ze sprzętem, które mogą prowadzić do przestojów.

Dzięki DCIM można wykrywać naruszenia umów SLA, szybko znajdować ich przyczyny i wdrażać odpowiednie działania naprawcze. Co równie ważne, zaawansowane monitorowanie i zarządzanie infrastrukturą centrum danych pomaga w zapewnieniu ciągłości działalności i sprawnym jej odzyskiwaniu na wypadek awarii. Ma to szczególne znaczenie na obecnym etapie transformacji cyfrowej, a także w związku z coraz bardziej wyśrubowanymi wymaganiami dotyczącymi zachowania zgodności z przepisami. Regulacje prawne i audyty określają procesy oraz procedury, które powinny być odpowiednio udokumentowane i skrupulatnie monitorowane.

Zarządzanie infrastrukturą z chmury

Platforma do zarządzania infrastrukturą centrum danych może być hostowana nie lokalnie, ale w chmurze. Dzięki temu zapewnia nowe funkcje (np. bazujące na sztucznej inteligencji i uczeniu maszynowym), a także eliminuje  takie problemy z tradycyjnymi narzędziami, jak długi czas wdrażania i złożoność rozwiązania.

Dostarczany w modelu Software as a Ser-vice (SaaS) chmurowy DCIM zapewnia prostsze wdrażanie, a aktualizacje oprogramowania, nowy firmware czy poprawki bezpieczeństwa są dostarczane automatycznie. Dodatkowo dużo łatwiejsze staje się odzyskiwanie po awarii – dzięki przechowywanej stale w chmurze kopii zapasowej systemu. Architekturę DCIM as a Service można wdrożyć w dowolnej infrastrukturze łączącej się z chmurą. W usługach tego rodzaju wykorzystuje się różne urządzenia mobilne (w tym smartfony i tablety), a administratorzy potrzebują jedynie połączenia internetowego, aby uzyskać natychmiastowy dostęp do aplikacji i zdalnie monitorować swoją infrastrukturę.

Co więcej, dostawcy narzędzi DCIM bazujących na chmurze zbierają zanonimizowane informacje o użytkowanych systemach od wielu swoich klientów. Następnie wykorzystują mechanizmy sztucznej inteligencji i uczenia maszynowego, aby na podstawie wielu zgromadzonych danych uzyskać wgląd w obszary i trendy, takie jak zapotrzebowanie na energię, jej koszty, wydajność chłodzenia, zarządzanie zasobami czy ślad węglowy. To właśnie wsparte przez AI i ML utrzymanie predykcyjne (obok łatwego zdalnego dostępu) ma stanowić o przewadze narzędzi chmurowych. Mają one ograniczyć przestoje i koszty obsługi centrum danych. Zamiast przeprowadzać konserwację zgodnie z harmonogramem (niezależnie czy jest potrzebna, czy nie), robi się to tylko wtedy, gdy jest ona wymagana.

Według specjalistów zdalne podejście bazujące na specjalizowanym oprogramowaniu chmurowym pozwala przełamać dotychczasowe ograniczenia charakterystyczne dla systemów on-premise. Umożliwia analizę danych tysięcy urządzeń i przekazanie użytkownikom wiarygodnych rekomendacji. Uruchomione w chmurze oprogramowanie do zarządzania infrastrukturą DC umożliwia także efektywne monitorowanie zasobów fizycznych osadzonych w rozproszonej strukturze.

– Wystarczy podłączenie do internetu, żeby monitorować infrastrukturę brzegową. Co więcej, działanie systemu monitorującego nie jest narażone na skutki awarii w lokalnych serwerowniach. Zbieranie danych w jednym miejscu stało się dziś więc znacz-nie łatwiejsze i bardziej niezawodne niż kiedykolwiek – twierdzi Przemysław Szczęśniak, inżynier sprzedaży Secure Power w Schneider Electric.

Trend edge computingu, czyli przenoszenia przetwarzania danych bliżej miejsca ich powstawania, będzie prowadził do stosowania systemów, które dobrze skalują się do środowisk rozproszonych, na przykład kilkunastu mniejszych serwerowni czy punktów dystrybucyjnych. Efektem jest zastępowanie wdrażanych lokalnie rozwiązań przez te bazujące na chmurze.

Zdaniem integratora

Jacek Forysiak, Managing Director, Atende Jacek Forysiak, Managing Director, Atende  

Klienci, którzy są świadomi znaczenia monitoringu infrastruktury centrum danych, korzystają z tego typu usług. Od lat świadczymy serwis naprawczy i nie tylko reagujemy wtedy, gdy coś się stanie, ale oferujemy także serwis prewencyjny z elementami predykcji. Nasz system monitoringu, wdrażany u klientów, potrafi zbierać informacje z wielu różnych źródeł – nie tylko ze sprzętu, na bazie danych z SNMP i innych standardowych protokołów, ale także te pochodzące z monitoringu procesów w aplikacji. Ciągle rozwijamy i udoskonalamy nasz system, oferując go klientom, którzy jeszcze kilka lat temu mówili, że już posiadają indywidualne rozwiązania do monitoringu dostarczane przez poszczególnych dostawców, na przykład UPS-ów, a dzisiaj wyrażają zainteresowanie globalnym wglądem w swoją infrastrukturę IT. Chcą usługi, która całodobowo i na bazie zapisów umowy SLA będzie ją kontrolować. I ten trend będzie narastał.