Dostawcy starają się znaleźć kompromis, oferując coraz doskonalsze rozwiązania w zakresie dostarczania mocy obliczeniowej, zasilania i chłodzenia, zarządzania przestrzenią fizyczną, efektywności wirtualizacji czy bezawaryjności sprzętu. W branży zachodzą także zmiany w obszarze infrastruktury – kolejni dostawcy wprowadzają innowacyjne modele, w których sprzęt wdrażany on-premise jest oferowany – na podobieństwo chmury publicznej – w formie usługi. Ze względu na rozwój Internetu rzeczy i rosnące potrzeby przetwarzania na brzegu sieci znaczenie lokalnej infrastruktury nie będzie jednak maleć. Wręcz przeciwnie, hybrydowa architektura okazuje się najwłaściwszą w dostarczaniu zasobów IT.

Centrum danych powstaje po to, by stworzyć środowisko dla aplikacji, które są najważniejsze z biznesowego punktu widzenia. Dla zarządzających centrami danych istotny będzie czas implementacji aplikacji i optymalizacja kosztów związanych z budową rozwiązania, jego uruchomieniem, a później administrowaniem. Niemniej ważna jest dostępność, zarówno jeśli chodzi o ciągłość biznesową i odtwarzalność, jak i skalowanie i migrację obciążeń w sytuacjach kryzysowych. Kluczową sprawą pozostaje bezpieczeństwo danych i aplikacji.

W związku z tym poszukuje się nowych rozwiązań, które usprawniają działanie środowisk IT, a także nowych modeli ich dostarczania – mówi Grzegorz Dobrowolski, dyrektor ds. sprzedaży rozwiązań enterprise networking i data center w Cisco.

Podstawą tworzenia nowoczesnych aplikacji typu cloud native stają się w centrach danych platformy kontenerowe. Poszczególne elementy aplikacji budowanych w modelu mikrousług dużo wydajniej i łatwiej wirtualizuje się w formie kontenerów lub małych i lekkich modułów, które współużytkują jądro systemu operacyjnego i przez to uruchamiają się o wiele szybciej niż klasyczne maszyny wirtualne. W tym obszarze niekwestionowanym zwycięzcą i de facto standardem wydaje się Kubernetes.

Z ekonomicznego punktu widzenia najbardziej zasadne jest wdrożenie gotowego i kompletnego rozwiązania kontenerowego, dzięki któremu firmy nie muszą poświęcać czasu na budowanie i integrację całego systemowego „podwozia”. Mogą za to skupić się na istocie sprawy, czyli tworzeniu i wdrażaniu oprogramowania aplikacyjnego – mówi Paweł Albert, Advisory Systems Engineer w Dell Technologies.

Problemem jest jednak wdrażanie i konfigurowanie wielu kontenerów dla wielu mikrousług oraz zarządzanie nimi. Zadanie jest jeszcze bardziej skomplikowane, jeżeli w skład środowiska IT wchodzi wiele chmur publicznych i prywatnych. Pomocne mogą być platformy do zarządzania kontenerami w środowiskach klasy produkcyjnej, które dzięki automatyzacji wielu procesów pozwalają zaoszczędzić czas zespołów IT. Migracja do chmury nie stanowi jednak rozwiązania wszystkich problemów. O ile obecnie wiele aplikacji od razu powstaje w chmurze, starsze z nich nie zawsze są dostosowane do wymogów modelu SaaS. Niektórych wręcz nie da się przenieść do chmury i muszą pracować w maszynach wirtualnych.

Ważne jest, żeby aplikacji nie traktować jako osobnego elementu środowiska IT. Poprawność ich działania należy oceniać, biorąc pod uwagę cele biznesowe, które pozwalają spełnić – twierdzi Grzegorz Dobrowolski.

Przykładowo, chatbot odpowiadający za kontakt z klientem powinien przyczynić się do mniejszej liczby zapytań wysyłanych innymi kanałami. Jeżeli tak się nie dzieje, może to oznaczać, że aplikacja jest nieskuteczna, mimo że pod względem technicznym funkcjonuje dobrze. Rozwiązaniem będzie monitorowanie działania aplikacji pod kątem procesu biznesowego, jaki realizuje. Tak można zidentyfikować, w którym miejscu procesu występuje problem. Optymalizując działanie aplikacji, nie należy zapominać o efektywnym zarządzaniu infrastrukturą. W takim przypadku z pomocą przychodzą narzędzia ułatwiające administrowanie zasobami, szybkie reagowanie na zmieniające się potrzeby i zapewniające wydajność dostosowaną do obciążeń.

 

Coraz większą popularność zyskuje przy tym model samoobsługowy, znany z rozwiązań chmurowych, w którym odbiorca końcowy (właściciel aplikacji) samodzielnie i bez potrzeby angażowania administratorów jest w stanie wdrażać i konsumować zasoby IT. Infrastruktura centrum danych staje się „definiowana programowo”, a większość inteligencji i logiki operacyjnej jest na poziomie oprogramowania – tak wygląda w praktyce realizacja koncepcji SDDC (Software-Defined Data Center).

Infrastruktura definiowana programowo doskonale współgra z upowszechnianiem się modelu DevOps. Infrastructure as code to idea, w której zarządzanie i wdrażanie zasobów centrum danych odbywa się za pomocą oprogramowania w modelu deskrypcyjnym, oznacza przetwarzanie plików definicji, opisujących pożądany stan zasobów infrastruktury dla potrzeb konkretnego środowiska, np. w formacie YAML lub JSON. Nieodzownym elementem w tym modelu jest komunikacja z infrastrukturą przez API – mówi Paweł Albert.

Inteligentne i bezpieczne centrum danych

Wydajność i optymalizację procesów zachodzących w data center zapewnia coraz częstsze wykorzystanie algorytmów sztucznej inteligencji – machine learningu (ML) i deep learningu (DL) – w samej infrastrukturze: pamięciach masowych, rozwiązaniach sieciowych i serwerowych. Stając się coraz bardziej „inteligentnymi”, urządzenia analizują swoje dane telemetryczne i na ich podstawie uczą się, jak usprawniać funkcjonowanie – działać wydajniej, przewidzieć potencjalną usterkę czy też zmodyfikować obsługę operacyjną.

Algorytmy ML/DL można zaszyć na poziomie operacyjnym – w mechanizmach kompleksowego zarządzania i monitoringu poszczególnych środowisk w centrum danych. Wykorzystuje się wtedy zaawansowaną analitykę do proaktywnego utrzymania czy wykrywania anomalii w działaniu komponentów, które mogą skutkować niedostępnością usług lub spadkiem ich wydajności. 

Mechanizmy sztucznej inteligencji sprawdzają się też w narzędziach z obszaru cyberbezpieczeństwa centrum danych. Odpowiednio zaprojektowane i wytrenowane algorytmy ML/DL potrafią lepiej oceniać i wykrywać potencjalne zagrożenia oraz próby ataków hakerskich. A biznes nie chce rezygnować z elastyczności, jaką daje chmura, i chce mieć dostęp do zasobów centrum danych zarówno w sieci wewnętrznej, jak i zewnętrznej. Można go uzyskać bez ryzyka narażenia się na cyberatak dzięki szyfrowanym połączeniom i rozwiązaniom takim jak SD-WAN. 

Chcąc prawidłowo zabezpieczyć zasoby firmowe, należy zadbać również o wieloetapowe uwierzytelnianie, segmentację i ochronę przed cyberatakami, co nie będzie możliwe bez właściwego wglądu i dostępu do bieżących informacji o zagrożeniach – mówi Grzegorz Dobrowolski.

Większe bezpieczeństwo to także nowoczesne rozwiązania ochrony danych, które podążając za najnowszymi trendami w data center, lepiej zaspokajają potrzeby jego użytkowników. 

Mogą one w sposób zoptymalizowany zabezpieczać zarówno „tradycyjne” centra danych, bazujące na serwerach bądź maszynach wirtualnych, jak i nowoczesne środowiska kontenerowe, o znacząco odmiennych wymaganiach. Kluczowe staje się integrowanie mechanizmów odzyskiwania danych, które nierzadko są ostatnią deską ratunku, przykładowo w razie ataku ransomware – podkreśla Paweł Albert.

Coraz więcej hiperkonwergencji

Jeśli chodzi o rodzaj sprzętu, to w porównaniu z tradycyjnymi platformami zintegrowanymi i systemami konwergentnymi na znaczeniu zyskuje infrastruktura hiperkonwergentna (HCI – hyperconverged infrastructure). Stopniowo staje się ona standardem w nowoczesnych, definiowanych programowo centrach danych. Według IDC globalna sprzedaż HCI była w trzecim kwartale 2019 r. większa zarówno od systemów konwergentnych, jak i zintegrowanych. Rynek HCI wygenerował przychody o wartości ponad 2 mld dol., co stanowi wzrost o prawie 19 proc. rok do roku. Łączna sprzedaż infrastruktury hiperkonwergentnej w całym ubiegłym roku ma zdaniem IDC wynieść blisko 7,5 mld dol.

W świecie wirtualizacji i konteneryzacji hiperkonwergencja pozwala na stworzenie zintegrowanego środowiska dla aplikacji, obejmującego warstwę sieciową, obliczeniową i pamięci masowych. Umożliwia szybką implementację, łatwą rozbudowę i zarządzanie. To środowisko on-premise oferujące tę samą paletę zalet co chmura, z łatwością uruchomienia i administrowania na czele – mówi Grzegorz Dobrowolski.

Jak wynika z raportu Magic Quadrant for Hyperconverged Infrastructure firmy Gartner, do 2023 r. 70 proc. przedsiębiorstw będzie używać infrastruktury hiperkonwergentnej (w porównaniu z mniej niż 30 proc. w 2019 r.). Firmy coraz chętniej wykorzystują hiperkonwergencję do obsługi swoich krytycznych aplikacji, a HCI znajdują szersze zastosowanie także w środowiskach brzegowych (edge computingu). Dostawcy infrastruktury hiperkonwergentnej wykorzystują w większym stopniu funkcje sztucznej inteligencji, by automatycznie zwiększać wydajność i zapobiegać awariom w centrach danych.

To bardzo popularny w ostatnich latach model rozwoju centrów danych. Rozwiązania te znacząco upraszczają i przyspieszają opracowanie, wdrożenie, a także utrzymanie kompletnej infrastruktury. Dla wielu firm może być to jednocześnie doskonałe remedium na braki kadrowe wobec coraz większego zapotrzebowania na specjalistów IT – mówi Paweł Albert.

Jeśli rynek infrastruktury hiperkonwergentnej utrzyma obecne tempo wzrostu, co jest bardzo prawdopodobne, już w tym roku jego wartość przekroczy 10 mld dol.

 

Data center jako usługa

Dla zdecydowanej większości klientów inwestycje w infrastrukturę swoich centrów danych to tradycyjnie CAPEX, a nie OPEX. Ale chmura doprowadza do zmiany w sposobie myślenia klientów o zakupie i wykorzystaniu IT. Starają się do tego dostosować dostawcy infrastruktury, tworząc nowe oferty, z których można korzystać na zasadach „pay per use”, w modelu bazującym na konsumpcji i wydatkach operacyjnych, a nie inwestycyjnych. Kładą też duży nacisk na zapewnienie nabywcom usług o wartości dodanej. Najwięksi gracze na rynku (np. Dell Technologies, HPE i Lenovo ) zakładają, że klienci będą chcieli kupować infrastrukturę centrum danych „as a service”.

Sposób, w jaki użytkownicy konsumują technologie IT, staje się coraz elastyczniejszy. Na znaczeniu zyskuje nowoczesny model finansowy, w którym rozwiązanie jest kupowane w formie usługi. Dotyczy to również infrastruktury. Z racji przejścia na koszty abonamentowe przy takiej usłudze firmy nie muszą dysponować już kilkumilionowymi budżetami na start, co często wykracza poza ich możliwości – mówi Paweł Albert.

Podobnie jest z dostarczaniem zasobów infrastruktury do konsumentów – użytkowników końcowych, w tym właścicieli aplikacji biznesowych. Model usługowy „IT as a service”, zyskuje na znaczeniu i staje się coraz popularniejszy. W przypadku elastycznych modeli konsumpcji, ważne są również elastyczne modele rozliczeniowe „pay as you grow”, w których klient płaci za tyle zasobów, ile udało mu się wykorzystać. Jednocześnie, gdyby jego zapotrzebowanie nagle wzrosło, dostęp do kolejnych rezerw powinien być zapewniony od ręki – na żądanie. Są to mechanizmy doskonale znane z chmur publicznych, jednak od pewnego czasu podobne modele obecne są w ofertach niektórych dostawców infrastruktury dla lokalnych centrów danych. Niewątpliwie zapewniają one dużą elastyczność oraz efektywność kosztową w procesie organizacji środowisk IT we własnych DC.

Jeśli mamy do czynienia z usługą, w ramach której z całej oferty rozwiązań klient wybiera potrzebne komponenty i z nich buduje środowisko we wskazanym przez siebie miejscu, należy uwzględniać zmiany zapotrzebowania na ogólnie rozumianą moc obliczeniową przez instalowanie komponentów nadmiarowych (w ilości ustalonej z użytkownikiem). Pozostają one w pełnej gotowości do uruchomienia i podjęcia zwiększonego obciążenia, a całość konfiguracji jest wyceniana w umownych jednostkach rozliczeniowych. Z końcem każdego miesiąca wyniki pomiaru poziomu wykorzystania środowiska, wyrażone we wspomnianych jednostkach rozliczeniowych, stają się podstawą do wystawienia miesięcznej faktury. Warunki przewidują stały cennik wartości poszczególnych jednostek rozliczeniowych przez cały okres trwania usługi. Obowiązuje opłata minimalna definiowana najmniejszym zapotrzebowaniem na zasoby infrastruktury. Ważne jest także to, że gdy klient wykorzystuje coraz więcej jednostek rozliczeniowych, ich cena spada. 

Usługa udostępniania mocy obliczeniowej powinna łączyć w sobie trzy kluczowe dla firm cechy: prostotę i przejrzystość rozliczenia, elastyczność infrastruktury oraz ekonomiczność, co umożliwia model rozliczenia bazujący na mierzonym poziomie wykorzystania infrastruktury – podsumowuje Miłosz Błasiak, Support Solution Architect w HPE. 

 

Zdaniem integratora

Piotr Kuczmarski, prezes zarządu, Infrastructure & Business Consulting Group

Wdrażamy rozwiązania, w których dostarczana infrastruktura centrum danych staje się własnością klienta. Większość projektów dotyczy sektora publicznego i bankowego, gdzie inny model finansowania sprzętu niż jego zakup najczęściej nie wchodzi w grę. Rzeczywiście pojawiają się na rynku oferty usługowe polegające na tym, że właścicielem infrastruktury pozostaje dostawca, a serwery lub macierze są wstawiane do klienta na zasadach leasingu. Nasi klienci nie są jednak zainteresowani wynajmem. W ich przypadku problemem mogłyby być kwestie związane chociażby z własnością dysków z danymi. Bardzo często do standardowej gwarancji dokupowana jest taka opcja, że nośniki pamięci masowej, ze względów bezpieczeństwa, nigdy nie opuszczają firmy klienta. Jeśli korzystano by z modelu usługowego, w którym firma nie jest właścicielem sprzętu, to ten problem musiałby być jakoś rozwiązany. Pozostają też kwestie księgowe i związane z planowaniem budżetów. W tym przypadku dużo musiałoby się zmienić, żeby klienci zaczęli kupować usługę, zamiast inwestować w sprzęt. Oczywiście taki model funkcjonuje od dawna w przypadku chociażby samochodów, więc można go sobie wyobrazić także w odniesieniu do infrastruktury centrum danych. Być może łatwiej go zastosować w mniejszych firmach, których raczej nie obsługujemy.

 

 

Zdaniem specjalisty 

Grzegorz Dobrowolski, dyrektor ds. sprzedaży rozwiązań enterprise networking i data center, Cisco

Ważnym trendem na rynku rozwiązań dla centrów danych jest konteneryzacja. Ma to związek ze zmieniającym się sposobem korzystania z aplikacji i ich migracją do chmury, co często zmienia architekturę samych aplikacji. Użytkownicy oczekują, że będą one „lekkie”, łatwo i szybko dostępne z dowolnego miejsca. Z kolei developerom zależy na sprawnym wdrażaniu zmian i wprowadzaniu produktu na rynek przy jak najmniejszych zakłóceniach. To wpływa na sposób tworzenia aplikacji. Często są one budowane w modelu mikrousługowym, co umożliwia sprawniejszą i wydajniejszą wirtualizację. 

Paweł Albert, Advisory Systems Engineer, Dell Technologies

Obserwujemy u wielu firm coraz większą skłonność do inwestowania w zaawansowane narzędzia analityczne, która wynika ze zrozumiałej chęci monetyzacji nowych pomysłów i idei. Należy przy tym pamiętać, że jednym z istotnych warunków takiego działania powinno być zapewnienie odpowiednio wydajnych platform sprzętowych. Przykładem może być użycie pamięci typu flash. W połączeniu z protokołem NVMe i technologią SCM (Storage Class Memory) umożliwiają one szybsze dostarczanie danych. W rezultacie można je natychmiast poddać analizie i uzyskać cenne z biznesowego punktu widzenia informacje. 

Miłosz Błasiak, Support Solution Architect, HPE 

Infrastruktura „as a service” jest wydajna, bo stale wykorzystuje najnowsze technologie i tylko takie, jakie są potrzebne. Jest bezpieczna, bo środowisko może być zaopatrzone w zasoby nadmiarowe, włączane „na żądanie”. Nagły wzrost zapotrzebowania na moc obliczeniową przestaje być problemem. Środowisko jest zlokalizowane tam, gdzie wskaże klient, z wszelkimi adekwatnymi środkami bezpieczeństwa fizycznego. Całość jest objęta wsparciem serwisowym o starannie dobranym zakresie. Usługa jest też ekonomiczna, ponieważ płatność dotyczy tylko tego, co zostało wykorzystane. Im większe środowisko, tym niższa cena jednostki rozliczeniowej.

Marek Okularczyk, Business Development Executive, Lenovo DCG Poland

Następuje ewolucja rynkowych modeli korzystania z ICT w kierunku środowisk wysokowydajnych, dynamicznie skalowalnych, łatwo i szybko adaptujących się do nowych potrzeb. Takich, które realizuje się coraz częściej w formule hybrydowej, a przy tym są bezpieczne i efektywne kosztowo, na zasadzie „płacę tylko za to, czego używam”. Do tego wszystkiego musi dostosować się branża. Żeby zgodnie ze postępującymi zmianami lepiej zaspokajać potrzeby naszych klientów, wdrażamy więc kolejne „inteligentne” rozwiązania, obejmujące łańcuch dostaw, obsługę klienta i procesy serwisowe. 

Cezary Gutowski, kierownik wsparcia sprzedaży, Secure Power, Schneider Electric

W dobie postępującej cyfryzacji, integracji środowisk IT i OT oraz rozwoju Internetu rzeczy coraz większą rolę będą odgrywać rozwiązania typu micro data center. To wstępnie skonfigurowane, przetestowane i zintegrowane miniaturowe centra danych, zamknięte w bezpiecznej obudowie, które można szybko implementować na brzegu sieci, by obsługiwały aplikacje wymagające małych opóźnień w komunikacji i dużych przepustowości. Realizowany w taki sposób model edge computing odpowiada na potrzeby przede wszystkim sektora handlowego, ochrony zdrowia i produkcji.

Urszula Fijałkowska, Senior Partner Account Manager Poland & Baltics, Vertiv

Mimo że przetwarzanie w chmurze nadal pozostaje ważną częścią strategii IT większości przedsiębiorstw, to jednak wyraźnie widać postępującą zmianę w ich podejściu. Przede wszystkim starają się dostosować swoje środowisko IT do potrzeb użytkowanych aplikacji. Staje się jasne, że firmowe centra danych mają się dobrze, ewoluując w kierunku środowisk hybrydowych. Przedsiębiorstwa dostrzegają też pilną potrzebę przeniesienia przetwarzania części danych na brzeg sieci. Jesteśmy więc świadkami pojawienia się zupełnie nowego segmentu rynku, stymulowanego potrzebą umieszczenia rozwiązań przetwarzających dane bliżej ich użytkowników.

 

Miniaturowe centra danych na brzegu sieci

Przedsiębiorstwa coraz częściej decydują się na hybrydowy model przetwarzania danych, będący połączeniem chmury publicznej i prywatnej. Stawiają też na rozbudowę zasobów na brzegu sieci, wokół jej zmodyfikowanego szkieletu. Wykorzystanie architektury hybrydowej zapewnia firmom zachowanie kontroli nad danymi wrażliwymi, jednocześnie zaspokajając potrzeby związane ze stale rosnącym wolumenem informacji i koniecznością przetwarzania ich bliżej konsumenta. 

– W takim nowym ekosystemie danych kluczowe jest zagwarantowanie łączności w środowisku IT i dostępności informacji. Konieczne staje się więc zwrócenie większej uwagi na bezproblemową komunikację między rdzeniem sieci, jej brzegiem i chmurą – mówi Urszula Fijałkowska, Senior Partner Account Manager Poland & Baltics w firmie Vertiv.

Na brzegu sieci będzie funkcjonować coraz więcej rozwiązań Internetu rzeczy. Rośnie też potrzeba przetwarzania tam danych i wykorzystania usług analitycznych w czasie rzeczywistym. W 2020 r. i następnych latach będzie przybywać aplikacji wymagających obliczeń dokonywanych jak najbliżej użytkowników końcowych. W rezultacie niezmiennie rośnie rola modelu edge computing.

Według szacunków Gartnera do 2022 r. aż 75 proc. danych generowanych przez przedsiębiorstwa będzie tworzonych i przetwarzanych poza tradycyjnym centrum danych lub chmurą (w porównaniu z mniej niż 10 proc. w 2018 r.). To właśnie edge computing zapewnia podstawowe funkcje obliczeniowe w określonej lokalizacji – tam, gdzie są one potrzebne. A potrzeba ta coraz częściej dotyczy brzegu sieci. Fala nowych technologii – od 5G, przez Internet rzeczy, po sztuczną inteligencję – przyniesie jeszcze więcej danych, które będą musiały być przetwarzane w pobliżu miejsca ich powstawania. Przełoży się to na wzrost zapotrzebowania klientów na małe centra przetwarzania danych.

Integratorom stwarza to możliwość dostarczania, wdrażania, a także obsługiwania centrów danych w skali mikro na brzegu sieci. Tego rodzaju infrastruktura jest tworzona dla aplikacji, które (jako wrażliwe na opóźnienia lub wymagające dużych przepustowości) nie nadają się do obsługi w hiperskalowalnych centrach danych chmury publicznej, a nawet w średniej wielkości lokalnych obiektach kolokacyjnych. W przeciwieństwie do tradycyjnych placówek  mikro- i minicentra danych są budowane, konfigurowane i testowane w fabryce producenta, a następnie w całości dostarczane do klienta. Ich skala zapotrzebowania na energię będzie się wahać od kilku do kilkuset kW i można się spodziewać na rynku coraz bogatszej oferty tego typu systemów. 

Odnawialne źródła energii w centrum danych

Z badania przeprowadzonego na zlecenie Equinixa wśród osób decydujących o infrastrukturze IT w firmach wynika, że 45 proc. z nich oczekuje, by ich infrastruktura informatyczna była zrównoważona pod względem ekologicznym. Nic dziwnego, że większość producentów zwraca coraz większą uwagę na ochronę środowiska, głosząc potrzebę tworzenia bardziej przyjaznych dla przyrody centrów danych, w tym wykorzystywania energooszczędnych rozwiązań. W tym celu stosowane są innowacyjne systemy chłodzenia cieczą albo powietrzem z zewnątrz czy zaawansowane narzędzia do monitorowania centrów danych. Od dłuższego czasu właściciele największych centrów danych, jak Facebook, Google czy Microsoft, chwalą się wysokimi wskaźnikami wykorzystania odnawialnych źródeł energii. Obecnie, wobec konieczności jak najbardziej efektywnego gospodarowania energią oraz wymogów regulacyjnych, również mali operatorzy będą w coraz większym stopniu stawiać na „zieloną energię”, uzyskiwaną ze słońca, z wody czy biomasy.