Postęp technologiczny sprawia, że administratorzy potrzebują narzędzi do zarządzania, które są tak samo nowoczesne jak sprzęt i aplikacje działające w ich centrach danych. A tradycyjne podejście do administrowania nimi  nie nadąża za dynamicznymi zmianami w środowisku IT, które jest zorientowane na wirtualizację i chmurę. Dlatego narzędzia nowej generacji zapewniają zarządzanie w czasie rzeczywistym, bazujące na informacjach uzyskiwanych z monitorowanej infrastruktury.

Oczywiście podstawowe zadanie infrastruktury wspomagającej centrum danych  polega na zapewnieniu serwerom, pamięci masowej i sprzętowi sieciowemu nieprzerwanego zasilania, chłodzenia, połączeń sieciowych i przestrzeni przy zachowaniu odpowiedniego poziomu nadmiarowości. Osiągnięcie celu nie jest łatwe z uwagi na to, że sprzęt IT i jego obciążenia podlegają częstym modyfikacjom zarówno w czasie, jak i miejscu. Z tego względu optymalne dopasowanie zasobów obiektu, jakim jest serwerownia, do zmieniających się potrzeb IT wymaga systemu do zarządzania infrastrukturą.

Konieczność wsparcia przez tego typu oprogramowanie do zarządzania wynika z faktu, że złożoność infrastruktury centrów danych okazuje się znacznie większa niż obiektów innego rodzaju, a tempo zachodzących tam zmian – znacznie szybsze. W połączeniu z krótkimi cyklami odświeżania systemów IT duże wyzwanie w zarządzaniu stanowi to, że coraz częściej jest ono definiowane programowo (obsługa wirtualnych serwerów, wirtualnych pamięci masowych i sieci). Zarządzania nie ułatwiają uwarunkowania zewnętrzne – regulacje prawne szczegółowo określają procesy oraz procedury, które powinny być odpowiednio udokumentowane i skrupulatnie monitorowane, zaś audyty weryfikują to.

Kolejne sprawa to wydatki na energię, które stanowią największą część kosztów użytkowania centrum danych. W dodatku cena prądu nie maleje, lecz rośnie. Wobec tego, aby osiągnąć efektywność energetyczną, w data center dąży się do zmniejszenia bezpiecznych marginesów pojemności i nadmiarowości. W takim środowisku, w którym nie ma wyraźnych „zapasów bezpieczeństwa” i dużego poziomu redundancji, system zarządzania infrastrukturą może zapobiegać przestojom, zwiększać jej odporność i reaktywność, zmniejszyć koszty operacyjne i dawać solidne podstawy do planowania pojemności centrum danych.

Michael Dell powiedział kiedyś, że „jeśli nie możemy czegoś zmierzyć, nie jesteśmy w stanie tym zarządzać”. W tym kontekście szczególnie ważne staje się monitorowanie wydajności, ponieważ wskaźniki wydajnościowe są podstawą oceny działania systemów. Wyzwanie związane z monitorowaniem centrum danych polega na tym, że istnieje bardzo wiele współzależnych komponentów, które można śledzić. Nie zawsze wiadomo, w jaki sposób poszczególne komponenty na siebie wpływają oraz jakie parametry są kluczowe dla działania centrum danych.

 

Jak wyeliminować ludzki błąd?

Mówi się, że w funkcjonowaniu systemów informatycznych to człowiek jest najsłabszym ogniwem. Uptime Institute ocenił nawet kiedyś, że 70 proc. awarii w centrach danych można bezpośrednio powiązać z ludzkimi błędami. Jeśli więc dąży się do wyeliminowania przestojów, operacyjne zarządzanie placówką nie może polegać na obserwacjach i odczytach administratorów jako podstawowym podejściu do zarządzania operacyjnego. Nawet w przypadku mniejszych serwerowni nie do zaakceptowania są: niespójność, niedokładność i ograniczone perspektywy cechujące administrowanie bazujące głównie na działaniach pracowników.

Jest jeszcze dodatkowy powód ograniczania roli człowieka w centrum danych – większa część całkowitego kosztu posiadania (TCO) to OPEX, a nie CAPEX. Tym samym to w obszarze operacji, a nie inwestycji można uzyskać więcej oszczędności. Jeśli dodać do tego obecne trudności ze znalezieniem specjalistów, trudno się dziwić, że magicznym słowem w nowoczesnym centrum danych staje się „automatyzacja”. To ona zapewnia ograniczenie kosztów przy jednoczesnym eliminowaniu ludzkich błędów. Potrafią ją wykorzystać dostawcy chmury publicznej i operatorzy hiperskalowalnej infrastruktury, ale muszą się tego nauczyć także właściciele nawet niewielkich serwerowni i centrów danych. Użycie automatycznych narzędzi sprawia, że administrator wreszcie może zająć się działaniami kluczowymi dla strategii biznesowej, nie marnując czasu na drobne, ale czasochłonne i powtarzalne czynności.

Trend zmierzający do ograniczania kosztów przy jednoczesnym maksymalizowaniu efektów pracy administratorów zarówno w samym centrum danych, jak i poza nim ma swoje odzwierciedlenie w centralizacji zarządzania i ułatwionym zdalnym dostępie do infrastruktury. Personel techniczny wyposażony w narzędzia administracyjne typu „out of  band” (wykorzystującego przeznaczone do zarządzania porty w urządzeniach) zyskuje dostęp i kontrolę nad infrastrukturą lokalną, a także możliwość zdalnego administrowania rozproszonymi geograficznie zasobami.

Zaawansowane platformy do zarządzania infrastrukturą centrum danych pomagają administratorom w ciągłej optymalizacji zasilania placówki, radzeniu sobie z ograniczeniami dotyczącymi chłodzenia i przestrzeni, ułatwiają redukowanie kosztów operacyjnych czy też zwiększanie wykorzystania zasobów. Chociaż głównymi odbiorcami tego typu narzędzi są duże przedsiębiorstwa, dostawcy usług zarządzanych i operatorzy centrów danych świadczący usługi kolokacji, to również mniejsze firmy mogą skorzystać na wdrożeniu wybranych funkcji takich platform. Ponieważ koszt oprogramowania do zarządzania stanowi tylko niewielki procent całkowitego kosztu posiadania centrum danych, każdy podmiot, który dysponuje obiektem nawet średniej wielkości, powinien rozważyć inwestycję w tego rodzaju narzędzia.

Definicja Gartnera

Według specjalistów z Gartnera narzędzia DCIM to systemy służące do monitorowania, pomiarów, zarządzania i/lub kontroli zasobów centrum danych oraz zużycia energii zarówno sprzętu związanego z IT (takiego jak serwery, pamięci masowe i przełączniki sieciowe), jak i elementów infrastruktury fizycznej (takich jak jednostki dystrybucji zasilania – PDU i klimatyzacja precyzyjna).
Są to specyficzne dla centrum danych (czyli stworzone do użytku w takich właśnie obiektach, a nie budynkach ogólnego przeznaczenia) narzędzia systemowego zarządzania, służące do optymalizacji zasilania, chłodzenia i przestrzeni fizycznej. Rozwiązania nie muszą bazować na czujnikach, ale muszą być zaprojektowane tak, aby uwzględniać monitorowanie w czasie rzeczywistym mocy oraz temperatury i warunków środowiskowych. Muszą także wspierać zarządzanie zasobami, które Gartner definiuje jako wykraczające poza typowe zarządzanie zasobami IT, bo obejmujące lokalizację i wzajemne powiązania między zasobami.

 

Nowe trendy w zarządzaniu centrum danych

Chyba najważniejszym zadaniem narzędzi DCIM (Data Center Infrastructure Management) nowej generacji jest zapobieganie przestojom i zapewnianie bezawaryjności. Nie tylko monitorują funkcjonowanie centrum danych, lecz także identyfikują każdą sytuację, która wykracza poza przyjęte zakresy działania i może spowodować awarię. Dlatego wciąż rośnie znaczenie proaktywnego, a nawet predykcyjnego utrzymania infrastruktury. W związku z tym platformy do zarządzania w coraz większym stopniu będą wykorzystywać Internet rzeczy, analitykę danych oraz chmurę obliczeniową.

IoT może połączyć wszystkie urządzenia funkcjonujące w centrum danych, które mają wbudowaną inteligencję, czyli takie, które mogą się komunikować i być „rozumiane” przez oprogramowanie. W rezultacie otrzyma się mnóstwo danych (Big Data), które stworzą szczegółowy obraz infrastruktury fizycznej, zasilającej, chłodzącej i w każdy inny sposób wspierającej serwery, pamięci masowe oraz sieci obsługujące aplikacje udostępniane użytkownikom.

Aby tak się stało, dane mogą być przesłane do chmury obliczeniowej, w której zostaną poddane szczegółowej analizie. W rezultacie klienci uzyskają precyzyjne informacje na temat swoich centrów danych: jak są wydajne, do ilu incydentów dochodzi w określonym przedziale czasu, jak stary jest ich sprzęt, czy niezbędna jest wymiana komponentów w urządzeniach połączonych w ramach IoT itp.

Gdy integrator zechce oferować taki model zarządzania, będzie to wymagać jedynie wdrożenia bramy w centrum danych, przez którą dane z infrastruktury fizycznej będą przesyłane zaszyfrowanym połączeniem do chmury. Za pomocą aplikacji na urządzenia mobilne można mieć wgląd w infrastrukturę i odbierać alarmy. Tego rodzaju usługi, bazujące na chmurze, będą popularyzować trend polegający na przechodzeniu od manualnego i lokalnego zarządzania centrum danych do zdalnego, opartego na danych i ostatecznie automatycznego.

 

Co powinno zapewniać DCIM?

Producentów, którzy deklarują, że oferują rozwiązania DCIM, są dziesiątki, jeśli nie setki. Warto więc zastanowić się nad kluczowymi funkcjami, jakie ma zapewniać kompleksowa platforma do monitorowania infrastruktury centrum danych i zarządzania nią.

Konfiguracja zasobów i zarządzanie zmianami – monitorowanie dynamicznych zmian w centrum danych to nie lada wyzwanie. Jeśli serwer ulegnie awarii, trzeba szybko ustalić przyczynę – zlokalizować usterkę i uzyskać szczegółowe informacje o błędach w konfiguracji. Równie ważne okazuje się zarządzanie zmianami. W monitorowaniu systemów, które mogą mieć wpływ na wydajność, konieczne jest śledzenie wprowadzanych elementów do infrastruktury i modyfikacji w konfiguracjach.

Monitorowanie w czasie rzeczywistym – przestoje w centrach danych dużo kosztują, więc kontrolowanie na bieżąco wydajności staje się nieodzowne. Platforma powinna stale monitorować infrastrukturę, dając pewność, że krytyczne serwery i systemy pozostają w trybie online. Musi także monitorować poprawność pracy urządzeń sieciowych. Istotne jest również zarządzanie infrastrukturą budynkową, monitorowanie systemów zasilania i chłodzenia, podtrzymujących działanie centrum danych.

Workflow – za każdym razem, gdy w centrum danych jest dodawany nowy serwer lub innego typu sprzęt oraz oprogramowanie, wymaga to podjęcia wielu działań, które mają wpływ na funkcjonowanie całości. Rozwiązanie DCIM powinno ułatwiać koordynację następujących po sobie czynności w procesie instalowania elementu, sprawdzając, czy wszystkie niezbędne kroki zostały wykonane, zanim nowe rozwiązania przejdzie w tryb online.

Analityka i raportowanie – przez sieć przepływa tak wiele danych, że niemożliwe jest śledzenie ich wszystkich. Platforma DCIM powinna umieć szybko je sortować, wszczynać alarmy i wyświetlać informacje dotyczące wydajności, aby rozwiązywać problemy w data center.

Wizualizacja – oprócz analityki narzędzia DCIM powinny zapewniać wizualizację działania centrum danych aż do poziomu pojedynczej szafy, wraz z warstwami prezentującymi parametry operacyjne, zakres wypełnienia szafy, dostarczaną moc itp. W przypadku tej funkcji między dostawcami można dostrzec spore różnice. Większość platform zapewnia widoki z góry na dół, ale niektóre także przekrojowe i trójwymiarowe.

Planowanie pojemności – wykorzystanie rozwiązania DCIM do gromadzenia informacji dotyczących wydajności systemów ułatwia planowanie pojemności centrum danych. Dostęp do informacji historycznych a także analiza schematów wykorzystania zasobów ułatwiają osiąganie maksymalnych korzyści z użycia takich komponentów jak zasilanie i chłodzenie oraz dokładne planowanie rozbudowy centrum danych.

Kompatybilność i integracja – żadna platforma DCIM nie rozwiąże wszystkich problemów dotyczących zarządzania systemami. Dlatego istotna jest otwartość rozwiązania i jego zdolność do integrowania z innymi, niezależnymi narzędziami do monitorowania zmian, modelowania, administrowania zasobami itp.