Hiperskaler: wróg czy przyjaciel?
Chociaż działania największych dostawców usług chmurowych budzą mieszane uczucia, to liczba ich klientów rośnie w dość szybkim tempie.
Na dłuższy czas termin „hiperskaler” został zapomniany. Teraz wrócił ze zdwojoną siłą.
Termin hiperskaler po raz pierwszy pojawił się w latach 90. podczas boomu dotcomów. W tym czasie odnosił się on do centrów danych, których architektura musiała się skalować, aby spełniać rosnące wymagania systemów IT. Potem na dłuższy czas termin ten został zapomniany, ale w ostatnich latach wrócił ze zdwojoną siłą. Obecnie pojęcie to odnosi się do największych dostawców usług chmurowych: AWS-u, Microsoftu, Google’a, a czasami również IBM-u czy Alibaby.
Pierwsza trójka wymienionych graczy praktycznie na nowo zdefiniowała internet, a rosnąca konsumpcja usług chmurowych sprawiła, że centra danych zaczęły rozrastać się do monstrualnych wręcz rozmiarów. Współcześni hiperskalerzy mają zdolności obsługi niewyobrażalnych wręcz ilości danych, mocy obliczeniowych oraz zasobów sieciowych, dążąc do dalszego, szybkiego rozszerzania infrastruktury, aby zaspokoić rosnący popyt. Według analityków International Date Council hiperskalowalne centrum danych powinno składać się z co najmniej 5 tys. serwerów i zajmować powierzchnię nie mniejszą niż 920 metrów kwadratowych. Wprawdzie nie ma prostych wytycznych dotyczących zużycia energii, aczkolwiek praktyka dowodzi, że większość hiperskalowych centrów danych zużywa od 100 megawatów (MW) do 300 MW. Analitycy Synergy Research Group szacują, że obecnie na całym świecie działa ponad tysiąc takich obiektów.
Stworzenie hiperskalowalnego centrum danych od podstaw to przedsięwzięcie poważne, wymagające nie tylko głębokiej kieszeni i znacznego wysiłku. Na liście wytycznych można znaleźć wiele ciekawych pozycji, takich jak wymagania wobec używanego sprzętu przeciwpożarowego i radzenia sobie z obsługą ogromnych obciążeń elektrycznych. Do potrzeb wliczyć należy parking przeznaczony nie tylko do obsługi samochodów używanych przez operatorów centrów danych, ale również dla wszelkich pojazdów ratunkowych. Do tego dochodzą jeszcze kosztowne umowy, które trzeba podpisać z lokalnymi rządami oraz społecznościami.
Hiperskalerzy rosną w siłę
Według badania przeprowadzonego przez Synergy Research Group hiperskalowe centra danych mają już 37 proc. udziału w całym rynku pod względem pojemności, co bardzo dobrze ilustruje wpływ przetwarzania w chmurze na inwestycje w infrastrukturę. Kolejne 23 proc. należy do dużych operatorów oferujących kolokację, a pozostałe 40 proc. do lokalnych centrów danych. Warto odnotować, że te ostatnie miały pięć lat temu znacznie większy udział w rynku (sięgał wówczas blisko 60 proc.). Na razie nic nie wskazuje na to, że obecny trend zostanie zatrzymany. Lawinowy przyrost danych, ostatnio głównie napędzany przez boom na sztuczną inteligencję, napędza inwestycje hiperkalerów w centra danych. Analitycy Gartnera wierzą, że w tym roku „hiperskalerzy i inni dostawcy usług będą stanowić 76 proc. jednostek serwerów AI”.
Wystarczy wspomnieć, że AWS w tym roku wyłożył 10 mld dol. na budowę dwóch kompleksów centrów danych w Mississippi. Poza tym rozrastają się istniejące centra danych AWS-u wraz z planami utworzenia 12 kolejnych stref dostępności i czterech kolejnych regionów tego dostawcy w Niemczech, Malezji, Nowej Zelandii i Tajlandii. Z kolei Microsoft zobowiązał się zainwestować 3,2 mld euro (3,4 mld dol.) w podwojenie swojej infrastruktury sztucznej inteligencji i wydajności przetwarzania w chmurze w Niemczech. Ta ekspansja skoncentruje się na istniejącym regionie chmur we Frankfurcie i nowo planowanej infrastrukturze w Nadrenii Północnej Westfalii.
Zdaniem integratora
Mikołaj Wiśniak, wiceprezes, IT Solution Factor Alternatywą dla usług chmurowych jest kolokacja. W tym przypadku klient jest właścicielem sprzętu, co oznacza, że może zapewnić sobie kompatybilność oprogramowania i infrastruktury, jak też pełną kontrolę fizyczną i logiczną dostępu do tych rozwiązań – nie ma tu zewnętrznych dostawców. Innym aspektem jest na pewno cena, ponieważ przy kolokacji płacimy za zewnętrzną serwerownię, zaś usługami uruchomienia, skalowania czy utrzymania zajmujemy się we własnym zakresie. Pomimo rosnących presji płacowych, cała część związana z kosztami OPEX leży po stronie klienta. Hiperskalerzy w ramach jednej ceny dostarczają wszystko, więc w przypadku takich rozwiązań wskaźnik TCO jest stosunkowo bardziej korzystny dla użytkownika. Ważna jest też możliwość połączenia między ośrodkami, bo decydując się na kolokację możemy zamówić specjalnie przeznaczony do tego światłowód.
Podobne artykuły
GigaCloud: GPU fundamentem nowej chmury
GigaCloud udostępnia pełne portfolio rozwiązań serwerowych bazujących na procesorach GPU, które pozwalają firmom przyspieszać procesy obliczeniowe, redukować koszty i budować przewagę konkurencyjną.
Cyfrowe zamki i klucze
W czasach, gdy wewnętrzne zagrożenia mogą być równie destrukcyjne jak zewnętrzne cyberataki, przedsiębiorstwa – chcąc nie chcąc – mierzą się z wielkim wyzwaniem, jakim jest ochrona danych uwierzytelniających.
Stabilna sieć i szybszy rozwój z SD-WAN Aruba
Nowoczesna sieć to nie tylko łączność, ale fundament efektywnego działania. Rozwiązanie SD-WAN od HPE Aruba pozwoliło zbudować środowisko, które łączy stabilność, bezpieczeństwo i prostotę zarządzania — wspierając rozwój organizacji w wielu lokalizacjach.
