Znów więcej mówi się o PUE

W całkowitych kosztach utrzymania centrum danych i serwerowni ważny staje się udział energii pobieranej nie tylko przez systemy zasilania, ale i chłodzenia. Sposobem na poprawę efektywności energetycznej staje się optymalizacja działania obu tych rodzajów infrastruktury. Specjaliści Uptime Institute zwracają uwagę, że obecnie 82 proc. badanych organizacji śledzi zużycie energii, a efektywność wykorzystania energii mierzy blisko 70 proc. przedsiębiorstw.

Dla przypomnienia, efektywność energetyczna jest mierzona współczynnikiem Power Usage Effectiveness (PUE), który określa stosunek całkowitej energii dostarczanej do data center do energii zużywanej wyłącznie przez sprzęt IT. PUE o wartości 2 oznacza, że na każdą 1 kWh zużytą przez serwery, pamięci masowe czy sprzęt sieciowy, jest potrzebna dodatkowa 1 kWh do działania infrastruktury centrum danych. O ile stare centra danych cechowały się współczynnikiem niewiele mniejszym od 2, to w tych budowanych obecnie projektanci starają się o to, by wartość PUE maksymalnie zbliżała się do 1.

Dążenie do minimalizacji kosztów funkcjonowania systemów zawsze było celem właścicieli i/lub operatorów data center. W obecnej sytuacji trend ten szczególnie się nasilił i dlatego technologie chłodzenia związane z obniżeniem PUE są w tej chwili najbardziej poszukiwane.

– Dużym zainteresowaniem cieszą się rozwiązania z zakresu freecoolingu, chłodzenia adiabatycznego oraz coraz bardziej popularna technologia drzwi chłodzących wykorzystujących wodę lodową – mówi Andrzej Wróbel, IT Solutions Sales Manager Poland & Baltics w Vertivie.

Ekologicznie i bezpiecznie

Czynniki wpływające na rynek systemów zasilania gwarantowanego mają charakter długofalowy. Najważniejszym z nich jest poszukiwanie przez klientów zwiększonej efektywności energetycznej, co przekłada się nie tylko na obniżanie kosztów zużycia energii, ale – coraz bardziej istotne – dążenie do zrównoważonego rozwoju. Ma to znaczenie zarówno w przypadku klientów indywidualnych, jak i instytucjonalnych, którzy realizują przy tym działania z zakresu ESG (Environmental, Social and Corporate Governance), czyli obszarów związanych z ochroną środowiska naturalnego, odpowiedzialnością społeczną i ładem korporacyjnym.

Pytanie, czy wpływ na rynek zasilania gwarantowanego mają również takie trendy, jak coraz większe wykorzystanie chmury obliczeniowej oraz rosnąca liczba wdrożeń typu Edge. Na pewno oba te obszary wymagają zaawansowanej infrastruktury zasilającej. Widać to zwłaszcza w przypadku dużych serwerowni kolokacyjnych, które potrzebują nowych, wzmocnionych systemów zasilania gwarantowanego. Także rozwój architektury brzegowej i pracy zdalnej wyraźnie wpływa na zainteresowanie zasilaniem awaryjnym.

Rozproszenie systemów powoduje konieczność zapewnienia zasilania gwarantowanego w różnych lokalizacjach. Dlatego zapotrzebowanie na zasilanie gwarantowane jest coraz większe. Rolą UPS-ów w takich miejscach jest zapewnienie użytkownikowi bezprzerwowego funkcjonowania środowiska aplikacji – mówi Andrzej Wróbel.

Także w wypadku chmury i systemów brzegowych znaczenie ma efektywność energetyczna i ekologiczność rozwiązań.

– Coraz częściej firmy oczekują od dostawców, aby ich urządzenia posiadały tak zwane ekopaszporty, czyli profile środowiskowe, opisujące ich wpływ na środowisko, zwłaszcza jeśli chodzi o poziom emisji gazów cieplarnianych – twierdzi Cezary Gutowski.

Zwiększają się także wymagania związane z bezpieczeństwem komunikacji pomiędzy operatorem, systemem UPS oraz infrastrukturą IT. Coraz więcej klientów wymaga odpowiednich protokołów cyberbezpieczeństwa i zgodności z międzynarodowymi normami oraz certyfikatami. Rozwiązania UPS powinny gwarantować, że ich komponenty, takie jak karta sieciowa, nie zostaną wykorzystane przez cyberprzestępców jako „furtka” do całej sieci.