Wokół centrów danych integratorzy mogą tworzyć ofertę obejmującą wszystkie aspekty środowiska IT klientów – od wdrażania infrastruktury, poprzez jej zabezpieczanie, aż po zarządzanie. Dzięki dużej rynkowej konkurencji tego typu placówek łatwe i atrakcyjne ekonomicznie stało się też uruchamianie dla klientów zapasowych ośrodków przetwarzania danych albo obejmowanie ich całego środowiska backupem w formie zewnętrznej usługi. Finalnie, dla klientów o najbardziej rozbudowanej infrastrukturze i rygorystycznych wymaganiach warto jest stworzyć bazującą na usługach centrów danych ofertę pod kątem przywracania środowisk IT do pracy po awarii lub katastrofie, jak też tworzenia infrastruktury hybrydowej, łączącej cyfrowe zasoby klienta z chmurą publiczną. To ostatnie wydaje się być najbardziej logicznym sposobem budowania firmowego IT.

Chmura publiczna, gdy pojawiła się w postaci komercyjnej oferty, była przedstawiana jako najlepsze rozwiązanie problemów związanych z przechowywaniem danych, dotyczących głównie skalowalności i wydajności. Jej operatorzy obiecywali, że uruchomienie wszystkich firmowych zasobów informatycznych w ich hiperskalowych centrach danych będzie kosztować mniej niż utrzymywanie chmury prywatnej albo serwerów on-premise. Po latach przedsiębiorstwa mają już znacznie większą wiedzę zarówno o zaletach, jak i wadach chmury publicznej.

Bez wątpienia doskonale sprawdza się ona w przypadku startupów, które jeszcze nie wiedzą, jakie będą mieć potrzeby związane z IT. Dlatego oczekują rozwiązania, które będzie można szybko skalować w górę i w dół. Z kolei przedsiębiorstwa, które już dysponują własnym IT, starają się obecnie bardzo uważnie analizować swoje potrzeby informatyczne, zdając sobie sprawę, że w chmurze publicznej często płaci się „ekstra” za rzeczy, z których się nie korzysta.

I chociaż wiele wskazuje na to, że chmura publiczna nie jest już docelowym miejscem dla całego firmowego IT, to z drugiej strony – co dowiodła sytuacja z pandemii – trudno będzie się bez niej obejść. Logicznym rozwiązaniem staje się architektura chmury hybrydowej, która łączy infrastrukturę chmury publicznej i prywatnej, dzięki czemu przedsiębiorstwa mogą korzystać z najlepszych cech obu środowisk. Z jednej strony zyskują kontrolę i bezpieczeństwo chmury prywatnej dla wrażliwych danych, a z drugiej skalowalność i optymalizację kosztów dla mniej krytycznych zasobów w chmurze publicznej.

Dzięki połączeniu obu środowisk firmy mogą skalować swoje zasoby w górę lub w dół w miarę potrzeb, unikając nadmiernej alokacji i redukując koszty. Korzystając z rozwiązania hybrydowej chmury mogą sprawić, że kluczowe aplikacje i dane będą zawsze dostępne i chronione, utrzymując większą kontrolę nad wrażliwymi danymi. Takie podejście umożliwia utrzymanie zgodności z regulacjami prawnymi i branżowymi, co jest szczególnie istotne w przypadku podmiotów stale przetwarzających wrażliwe dane, takich jak ochrona zdrowia, finanse czy administracja publiczna.

Brzegowe centra danych w sojuszu z 5G

Od kilku lat edge computing to dla wielu dostawców IT jeden z ważniejszych trendów na rynku. Z jednej strony wpływa na to eksplozja danych tworzonych na brzegu sieci, które monitorowane i analizowane mają ułatwiać klientom osiąganie lepszych wyników biznesowych. Z drugiej strony rośnie oferta przeznaczonego do wdrożeń brzegowych sprzętu i oprogramowania, które mają zmniejszyć opóźnienia aplikacji i zwiększać wydajność infrastruktury, co przekłada się na zwiększenie możliwości przetwarzania informacji (IT) oraz automatyzacji produkcji (OT). Dostawcy oferują także gotową infrastrukturę dla brzegowych centrów danych.

Ta infrastruktura jest potrzebna, ponieważ w zastosowaniach analityki czasu rzeczywistego, Internetu Rzeczy (IoT), rzeczywistości wirtualnej (VR) i innych nowych technik przetwarzania informacji kluczowym ryzykiem w korzystaniu z usług centrum danych stają się opóźnienia, liczone czasem potrzebnym na podróż danych od ich źródła do odbiorcy. Tworzone są więc brzegowe centra danych, które są rozproszonymi obiektami świadczącymi usługi obliczeniowe i pamięci masowej. Takie obiekty często znajdują się blisko miejsca, w którym dane są generowane, albo jak najbliżej użytkownika. Wraz z rozwojem usług 5G te niewielkie centra danych będą odgrywać coraz większą rolę.

Sieci 5G oraz mechanizmy przetwarzania brzegowego są predestynowane do tego, aby funkcjonować w symbiozie. Chociaż wdrażane osobno także przynoszą duże korzyści, to stosowane razem, uzupełniają się, tworząc rozwiązanie, które pozwala przedsiębiorstwom uruchamiać zupełnie nowe aplikacje. Można spodziewać się, że coraz więcej klientów zacznie myśleć w przypadku wdrożeń Internetu Rzeczy (IoT) o prywatnych sieciach komórkowych 5G. Wzrost zainteresowania takimi sieciami będzie kreował nowe biznesowe szanse zarówno dla doświadczonych integratorów, jak i startupów.

Serwery już nie są energooszczędne  

Jeszcze przed niecałą dekadą postęp w projektowaniu i produkcji chipów wpływał na zmniejszenie zużycia energii przez serwery, ale w ostatnich latach granice optymalizacji w tym obszarze zostały osiągnięte. Doprowadziło to do gwałtownego wzrostu zużycia energii przez coraz wydajniejsze serwery, który – jak wynika z danych Standard Performance Evaluation Corporation (SPEC) – wyniósł od 2017 roku do teraz aż 266 proc. (!). Ten gwałtowny skok jest jednym z wielu czynników technicznych i rynkowych, które kierują uwagę zarówno ustawodawców, jak i klientów, na sprawy związane ze świadomością ekologiczną. Napędzają też popyt na rozwiązania infrastruktury centrów danych, które pozwalają łatwiej osiągnąć cele zrównoważonego rozwoju (Environmental, Social, and Governance, ESG).

  
Popularne standardy projektowania centrów danych  

Projekt centrum danych musi być zgodny z regulacjami prawnymi i standardami. Oprócz międzynarodowych, krajowych oraz lokalnych przepisów, które mają zastosowanie do projektów budowlanych wszystkich typów obiektów, istnieje kilka najważniejszych standardów obowiązujących przy planowaniu takich placówek:

  • Uptime Institute Tier Standard – norma ta koncentruje się na odporności, redundancji i niezawodności centrum danych, zawiera wytyczne dotyczące faz projektowania, budowy i uruchamiania projektu.
  • ANSI/TIA-942 – norma ta dotyczy fizycznych aspektów funkcjonowania centrów danych, w tym infrastruktury telekomunikacyjnej, lokalizacji, architektury, systemów elektrycznych i mechanicznych, ochrony przeciwpożarowej i bezpieczeństwa.
  • EN 50600 – to pierwsza ogólnoeuropejska i ponadnarodowa norma, która przyjmuje całościowe podejście do planowania, budowy i eksploatacji centrum danych.