Centra danych: między młotem a kowadłem
Presja rynkowa i regulacje zmuszają właścicieli centrów danych do nadawania priorytetu efektywności energetycznej i tzw. zrównoważonemu rozwojowi. Z drugiej strony będą potrzebować dużo więcej prądu, żeby wykarmić coraz powszechniej używane narzędzia AI.

Stymulowany głównie przez AI ogromny popyt na infrastrukturę DC, napędza rozwój kolejnych innowacji technologicznych.
W rezultacie cała branża poszukuje sposobów na mądrzejsze niż do tej pory zarządzanie energią w centrach danych i zapewnienie jak największej ciągłość działania. A dostawcy intensywnie pracują nad tym, by systemy zasilania i chłodzenia w centrum danych mogły sobie bez większych problemów radzić z dodatkowym obciążeniem ze strony nowych aplikacji. Obecnie zatem najważniejszym trendem w zasilaniu gwarantowanym centrów danych staje się dążenie do maksymalnej elastyczności i efektywności energetycznej przy jednoczesnym zapewnieniu najwyższego poziomu niezawodności.
– Coraz częściej odchodzimy od tradycyjnej architektury 2 N na rzecz modelu „distributed redundant” lub „block redundant”. Takie topologie pozwalają wykorzystać dostępną infrastrukturę nawet w 70–80 procentach przy pełnym zachowaniu bezpieczeństwa operacyjnego. Dla porównania, w przypadku typowego układu 2 N jest to 50 procent – mówi Cezary Gutowski, kierownik wsparcia sprzedaży w Schneider Electric.
Drugim istotnym kierunkiem jest dynamiczny rozwój prefabrykowanych i modułowych rozwiązań zasilania oraz chłodzenia, które pozwalają znacząco skrócić czas wdrożenia nowych centrów danych – nawet o jedną trzecią.
– To szczególnie ważne w dobie gwałtownego wzrostu zapotrzebowania na moc obliczeniową, wynikającego z rozwoju sztucznej inteligencji. W efekcie rośnie też znaczenie szaf rack o wysokiej gęstości, które wymagają zaawansowanych systemów UPS oraz inteligentnych urządzeń PDU, umożliwiających dynamiczne zarządzanie zasilaniem i dystrybucją energii. Rosną też wymagania co do gęstości mocy samych zasilaczy UPS. Dziś na powierzchni 1,2 m2 można zainstalować zasilacz o mocy nawet 1,2 MW – dodaje Cezary Gutowski.
Standardem jest wyposażenie ich w algorytmy optymalizujące zużycie energii bez pogorszenia dostępności. Dodatkowo, systemy AI wymagają obsługi krótkotrwałych przeciążeń bez blokowania pracy falownika.
– Obecnie kluczowe trendy w zasilaniu gwarantowanym centrów danych i serwerowni obejmują dążenie do maksymalizacji efektywności energetycznej oraz adaptację do dynamicznych obciążeń generowanych przez sztuczną inteligencję. I chociaż technologia podwójnej konwersji nie oferuje cudów, to stale się rozwija, poprawiając sprawność na etapach prostownika i falownika. Ponadto, konstrukcje o zwiększonych zdolnościach przeciążeniowych stają się standardem, umożliwiając lepsze zarządzanie impulsowymi obciążeniami AI, co jest kluczowe nie tylko w sytuacjach wyjątkowych – mówi Paweł Poziemski, Senior Application Engineer w Vertivie.
Dużo więcej prądu dla AI
Sztuczna inteligencja ma stać się dla centrów danych największym w ich historii motorem rozwoju. Z drugiej strony będzie też ogromnym wyzwaniem. Infrastrukturę obliczeniową o niespotykanej do tej pory gęstości trzeba przecież zasilić, schłodzić i zabezpieczyć, co będzie niezwykle trudnym zadaniem. Oprócz aplikacji AI, większe zapotrzebowanie na infrastrukturę centrów danych i serwerowni wynikać będzie z kontynuowanej migracji użytkowników do chmury oraz innych działań związanych z transformacją cyfrową, a także upowszechnieniem się 5G.
Wraz z przyspieszonym rozwojem sztucznej inteligencji gwałtownie rośnie zużycie energii przez centra danych. AI, zwłaszcza w przypadku aplikacji generatywnych (takich jak ChatGPT), zużywa nawet dziesięć razy więcej energii niż tradycyjne usługi (takie jak np. wyszukiwanie w Google). Jako niezwykle „prądożerne” obciążenie, sztuczna inteligencja wyraźnie zwiększy zapotrzebowanie centrów danych na energię. Dlatego problemy z dostępnością infrastruktury o odpowiedniej mocy czy jej niezawodnością to poważne wyzwania w rozwoju branży centrów danych.
Rozwój sztucznej inteligencji niesie ze sobą potrzebę wykorzystania serwerów o znacznie wyższej mocy. Wyższa moc aktywnych urządzeń prowadzi z kolei do zwiększenia emitowanego przez nie ciepła.
– Stosunkowo niedawno za standardową moc jednej szafy rack uważało się do 25 kW. Z takimi systemami dobrze radziły sobie klasyczne systemy chłodzenia powietrzem. Jednak wraz z rozwojem AI moc urządzeń w jednej szafie rackowej sięga już nawet ponad 100 kW. Systemy chłodzenia powietrzem nie są w stanie odprowadzać takich ilości ciepła, jakie powstają podczas pracy tych urządzeń. Jedynym rozwiązaniem, które może spełnić stawiane wymagania, są systemy chłodzenia cieczą. W centrach danych coraz częściej można spotkać takie rozwiązania, bazujące na technologii Immersion Liquid Cooling i Direct-to-chip Liquid Cooling – podkreśla Władysław Szewczuk, Data Center Cluster Leader na Polskę i Ukrainę w Eatonie.
W efekcie nowo powstające obiekty, szczególne te zaprojektowane pod infrastrukturę chmurową, są już w dużej mierze oparte na systemach chłodzenia cieczą. Jak zauważa Paweł Poziemski, chłodzenie powietrzem osiąga swoje granice przy kilkudziesięciu kilowatach mocy cieplnej, które można schłodzić za pomocą aktywnych drzwi chłodzących. W przyszłości, a nawet już teraz, chipy będą oddawać ciepło bezpośrednio do cieczy chłodzącej.
Wspomaganie „zielonych” inicjatyw
Zasilanie gwarantowane pełni kluczową rolę w realizacji strategii zrównoważonego rozwoju centrów danych. Nowoczesne systemy UPS, charakteryzujące się sprawnością dochodzącą do 99 proc., znacząco ograniczają straty energii, co bezpośrednio przekłada się na jej mniejsze zużycie i redukcję emisji CO₂. Coraz częściej stosuje się także odzysk ciepła odpadowego z infrastruktury IT – to rozwiązanie pozwala na wykorzystanie energii cieplnej do ogrzewania budynków mieszkalnych, obiektów publicznych czy chociażby szklarni. Takie projekty są już realizowane przez Google w Finlandii czy Equinix w Paryżu.
– Dodatkowo, prefabrykowane moduły zasilania i chłodzenia wspierają gospodarkę o obiegu zamkniętym. Po zakończeniu cyklu życia mogą być demontowane i ponownie wykorzystywane. Ważnym elementem strategii proekologicznych jest także integracja centrów danych z odnawialnymi źródłami energii oraz udział w programach Demand Response, które umożliwiają dynamiczne zarządzanie poborem mocy i zwiększenie udziału czystej energii w miksie energetycznym. Te działania nie tylko wspierają cele klimatyczne, ale również pozwalają centrom danych znacząco ograniczyć koszty operacyjne, co w obecnych warunkach rynkowych stanowi równie ważny aspekt – twierdzi Cezary Gutowski.
„Zielone” inicjatywy wprowadzane w obiektach data center pomagają w zmniejszaniu współczynnika zużycia energii (PUE – Power Usage Effectiveness), który mierzy efektywność energetyczną obiektu. Do takich inicjatyw można zaliczyć monitoring i optymalizację zużycia energii oraz identyfikowanie przy pomocy inteligentnego oprogramowania DCIM (Data Center Infrastructure Management) tych obszarów, w których można wprowadzić dalsze zmniejszanie zużywanych zasobów.
Ważne jest przy tym zwiększanie sprawności systemów UPS, a w ostatnich dwóch latach widać w tym obszarze technologiczną rewolucję. Przez ostatnie 15 lat na rynku dominowały tradycyjne systemy UPS bazujące na tranzystorach IGBT, które oferują większą sprawność, mniejsze wymiary i wagę. Pojawiła się jednak nowa technologia UPS oparta na węgliku krzemu (SiC), która oferuje jeszcze lepsze parametry w porównaniu do IGBT: aż 30 proc. mniejsze wymiary urządzenia, wyższą gęstość mocy oraz wyższą sprawność, sięgającą 97,5 proc. w trybie online. To o 1 proc. większa sprawność niż w przypadku systemów UPS opartych na IGBT.
– Wydaje się, że to niewiele, ale dla UPS-a o mocy 1 MW, przy założeniu, że urządzenie będzie pracowało w trybie 24/7/365 przez 10 lat, oszczędności mogą wynieść nawet ponad 500 tysięcy złotych – podkreśla Władysław Szewczuk.
Podobne artykuły
AI i chmura: gra w Jengę z bezpieczeństwem w tle
Sztuczna inteligencja w chmurze to potężne narzędzie, a przy tym ryzykowna układanka. Jak pokazuje najnowszy raport Tenable, wiele organizacji buduje swoje środowiska AI niczym wieżę z klocków Jenga.
Tech Summit 2025: AI w serwerach i sieci
QNAP nie ustaje w rozwijaniu portfolio rozwiązań pamięci masowych, sieci oraz systemów nadzoru wideo. Obecnie największy nacisk producent kładzie na wprowadzanie kolejnych mechanizmów AI.
AI to nie tylko wsparcie – to też luka w strategii bezpieczeństwa
Coraz więcej firm wdraża zaawansowane narzędzia AI, aby zwiększyć swoją efektywność. Jednak wraz z postępem pojawiają się nowe wyzwania dotyczące integralności i bezpieczeństwa danych.