W rezultacie cała branża poszukuje sposobów na mądrzejsze niż do tej pory zarządzanie energią w centrach danych i zapewnienie jak największej ciągłość działania. A dostawcy intensywnie pracują nad tym, by systemy zasilania i chłodzenia w centrum danych mogły sobie bez większych problemów radzić z dodatkowym obciążeniem ze strony nowych aplikacji. Obecnie zatem najważniejszym trendem w zasilaniu gwarantowanym centrów danych staje się dążenie do maksymalnej elastyczności i efektywności energetycznej przy jednoczesnym zapewnieniu najwyższego poziomu niezawodności.

– Coraz częściej odchodzimy od tradycyjnej architektury 2 N na rzecz modelu „distributed redundant” lub „block redundant”. Takie topologie pozwalają wykorzystać dostępną infrastrukturę nawet w 70–80 procentach przy pełnym zachowaniu bezpieczeństwa operacyjnego. Dla porównania, w przypadku typowego układu 2 N jest to 50 procent – mówi Cezary Gutowski, kierownik wsparcia sprzedaży w Schneider Electric.

Drugim istotnym kierunkiem jest dynamiczny rozwój prefabrykowanych i modułowych rozwiązań zasilania oraz chłodzenia, które pozwalają znacząco skrócić czas wdrożenia nowych centrów danych – nawet o jedną trzecią.

– To szczególnie ważne w dobie gwałtownego wzrostu zapotrzebowania na moc obliczeniową, wynikającego z rozwoju sztucznej inteligencji. W efekcie rośnie też znaczenie szaf rack o wysokiej gęstości, które wymagają zaawansowanych systemów UPS oraz inteligentnych urządzeń PDU, umożliwiających dynamiczne zarządzanie zasilaniem i dystrybucją energii. Rosną też wymagania co do gęstości mocy samych zasilaczy UPS. Dziś na powierzchni 1,2 m2 można zainstalować zasilacz o mocy nawet 1,2 MW – dodaje Cezary Gutowski.

Standardem jest wyposażenie ich w algorytmy optymalizujące zużycie energii bez pogorszenia dostępności. Dodatkowo, systemy AI wymagają obsługi krótkotrwałych przeciążeń bez blokowania pracy falownika.

– Obecnie kluczowe trendy w zasilaniu gwarantowanym centrów danych i serwerowni obejmują dążenie do maksymalizacji efektywności energetycznej oraz adaptację do dynamicznych obciążeń generowanych przez sztuczną inteligencję. I chociaż technologia podwójnej konwersji nie oferuje cudów, to stale się rozwija, poprawiając sprawność na etapach prostownika i falownika. Ponadto, konstrukcje o zwiększonych zdolnościach przeciążeniowych stają się standardem, umożliwiając lepsze zarządzanie impulsowymi obciążeniami AI, co jest kluczowe nie tylko w sytuacjach wyjątkowych – mówi Paweł Poziemski, Senior Application Engineer w Vertivie.

Dużo więcej prądu dla AI  

Sztuczna inteligencja ma stać się dla centrów danych największym w ich historii motorem rozwoju. Z drugiej strony będzie też ogromnym wyzwaniem. Infrastrukturę obliczeniową o niespotykanej do tej pory gęstości trzeba przecież zasilić, schłodzić i zabezpieczyć, co będzie niezwykle trudnym zadaniem. Oprócz aplikacji AI, większe zapotrzebowanie na infrastrukturę centrów danych i serwerowni wynikać będzie z kontynuowanej migracji użytkowników do chmury oraz innych działań związanych z transformacją cyfrową, a także upowszechnieniem się 5G.

Wraz z przyspieszonym rozwojem sztucznej inteligencji gwałtownie rośnie zużycie energii przez centra danych. AI, zwłaszcza w przypadku aplikacji generatywnych (takich jak ChatGPT), zużywa nawet dziesięć razy więcej energii niż tradycyjne usługi (takie jak np. wyszukiwanie w Google). Jako niezwykle „prądożerne” obciążenie, sztuczna inteligencja wyraźnie zwiększy zapotrzebowanie centrów danych na energię. Dlatego problemy z dostępnością infrastruktury o odpowiedniej mocy czy jej niezawodnością to poważne wyzwania w rozwoju branży centrów danych.

Rozwój sztucznej inteligencji niesie ze sobą potrzebę wykorzystania serwerów o znacznie wyższej mocy. Wyższa moc aktywnych urządzeń prowadzi z kolei do zwiększenia emitowanego przez nie ciepła.

– Stosunkowo niedawno za standardową moc jednej szafy rack uważało się do 25 kW. Z takimi systemami dobrze radziły sobie klasyczne systemy chłodzenia powietrzem. Jednak wraz z rozwojem AI moc urządzeń w jednej szafie rackowej sięga już nawet ponad 100 kW. Systemy chłodzenia powietrzem nie są w stanie odprowadzać takich ilości ciepła, jakie powstają podczas pracy tych urządzeń. Jedynym rozwiązaniem, które może spełnić stawiane wymagania, są systemy chłodzenia cieczą. W centrach danych coraz częściej można spotkać takie rozwiązania, bazujące na technologii Immersion Liquid Cooling i Direct-to-chip Liquid Cooling – podkreśla Władysław Szewczuk, Data Center Cluster Leader na Polskę i Ukrainę w Eatonie.

W efekcie nowo powstające obiekty, szczególne te zaprojektowane pod infrastrukturę chmurową, są już w dużej mierze oparte na systemach chłodzenia cieczą. Jak zauważa Paweł Poziemski, chłodzenie powietrzem osiąga swoje granice przy kilkudziesięciu kilowatach mocy cieplnej, które można schłodzić za pomocą aktywnych drzwi chłodzących. W przyszłości, a nawet już teraz, chipy będą oddawać ciepło bezpośrednio do cieczy chłodzącej.

Wspomaganie „zielonych” inicjatyw

Zasilanie gwarantowane pełni kluczową rolę w realizacji strategii zrównoważonego rozwoju centrów danych. Nowoczesne systemy UPS, charakteryzujące się sprawnością dochodzącą do 99 proc., znacząco ograniczają straty energii, co bezpośrednio przekłada się na jej mniejsze zużycie i redukcję emisji CO₂. Coraz częściej stosuje się także odzysk ciepła odpadowego z infrastruktury IT – to rozwiązanie pozwala na wykorzystanie energii cieplnej do ogrzewania budynków mieszkalnych, obiektów publicznych czy chociażby szklarni. Takie projekty są już realizowane przez Google w Finlandii czy Equinix w Paryżu.

– Dodatkowo, prefabrykowane moduły zasilania i chłodzenia wspierają gospodarkę o obiegu zamkniętym. Po zakończeniu cyklu życia mogą być demontowane i ponownie wykorzystywane. Ważnym elementem strategii proekologicznych jest także integracja centrów danych z odnawialnymi źródłami energii oraz udział w programach Demand Response, które umożliwiają dynamiczne zarządzanie poborem mocy i zwiększenie udziału czystej energii w miksie energetycznym. Te działania nie tylko wspierają cele klimatyczne, ale również pozwalają centrom danych znacząco ograniczyć koszty operacyjne, co w obecnych warunkach rynkowych stanowi równie ważny aspekt – twierdzi Cezary Gutowski.

„Zielone” inicjatywy wprowadzane w obiektach data center pomagają w zmniejszaniu współczynnika zużycia energii (PUE – Power Usage Effectiveness), który mierzy efektywność energetyczną obiektu. Do takich inicjatyw można zaliczyć monitoring i optymalizację zużycia energii oraz identyfikowanie przy pomocy inteligentnego oprogramowania DCIM (Data Center Infrastructure Management) tych obszarów, w których można wprowadzić dalsze zmniejszanie zużywanych zasobów.

Ważne jest przy tym zwiększanie sprawności systemów UPS, a w ostatnich dwóch latach widać w tym obszarze technologiczną rewolucję. Przez ostatnie 15 lat na rynku dominowały tradycyjne systemy UPS bazujące na tranzystorach IGBT, które oferują większą sprawność, mniejsze wymiary i wagę. Pojawiła się jednak nowa technologia UPS oparta na węgliku krzemu (SiC), która oferuje jeszcze lepsze parametry w porównaniu do IGBT: aż 30 proc. mniejsze wymiary urządzenia, wyższą gęstość mocy oraz wyższą sprawność, sięgającą 97,5 proc. w trybie online. To o 1 proc. większa sprawność niż w przypadku systemów UPS opartych na IGBT.

– Wydaje się, że to niewiele, ale dla UPS-a o mocy 1 MW, przy założeniu, że urządzenie będzie pracowało w trybie 24/7/365 przez 10 lat, oszczędności mogą wynieść nawet ponad 500 tysięcy złotych – podkreśla Władysław Szewczuk.