Klienci, którzy potrzebują serwerów, często zadają sobie dzisiaj pytanie: kupić sprzęt czy wynająć dostarczaną przez chmurę usługę. Chociaż chmura publiczna bywa przez jej dostawców przedstawiana jako najlepszy z możliwych sposób na wdrażanie infrastruktury IT, wciąż nie brakuje powodów, dla których warto posiadać własną. Co ciekawe, trend na przenoszenie całej działalności do chmury nieco wyhamował. Migracja nie jest ani prosta, ani tania zwłaszcza w tych organizacjach, które mają tak zwany dług technologiczny (w postaci posiadanej, nie najnowszej już, infrastruktury i starych aplikacji). Dlatego najpopularniejsze stają się rozwiązania hybrydowe, a w niektórych zastosowaniach wciąż dominują modele oparte na lokalnie dostępnych serwerach.

– Myślę, że rozwiązania w chmurze nie spełniły części z obietnic, jakie ze sobą niosły. Dodatkowo są ograniczone przez rozwijającą się wolniej infrastrukturę sieciową. Klienci zdali sobie sprawę, że niejednokrotnie rozwiązania chmurowe nie są tak tanie, jak się to początkowo wydawało. W dodatku powodują przywiązanie do konkretnego dostawcy takich usług, nie oferując w razie potrzeby łatwej migracji do innego dostawcy – mówi Marcin Brzeziński, prezes zarządu Eterio.

Najłatwiej zaoferować modernizację sprzętu komuś, kto nie zamierza zmieniać architektury swoich aplikacji, a także podejścia do bezpieczeństwa. Dla wielu klientów koszt i ryzyko wprowadzenia w dobrze działającym systemie tak poważnych zmian jak migracja do chmury mogą przeważyć nad rzekomymi korzyściami. Co nie oznacza, że argument za zakupem sprzętu będzie zawsze do obrony. Dlatego zamiast skupiać się tylko na technologii integrator powinien uważnie słuchać klienta i pomagać mu zrozumieć jego rzeczywiste potrzeby. Ponieważ chmura to bardziej sposób wdrażania niż fizyczna lokalizacja, trzeba być przygotowanym na łączenie różnych modeli w hybrydowe IT, a także dostarczanie infrastruktury, która lokalnie będzie działać tak jak cloud.

– Cyfrowa transformacja zmusza klientów do odchodzenia od tradycyjnego podejścia do budowania infrastruktury IT w kierunku rozwiązań zapewniających minimalny czas wdrożenia, w tym hiperkonwergentnych. Trudno obecnie znaleźć serwerownie, których zasoby nie byłyby zwirtualizowane i coraz więcej przedsiębiorstw planuje wdrożyć rozwiązania HCI. Ten trend będzie się nasilał – twierdzi Grzegorz Szurlej, Mid Market Sales Manager w polskim oddziale Fujitsu.

Szybciej, lepiej, więcej

Dostawcy i ich działy R&D intensywnie pracują nad tym, by oferowany przez nich sprzęt był coraz doskonalszy. Nowe serwery oparte na wielordzeniowych procesorach Intela i AMD, wyposażone w pamięć w standardzie DDR5, z większą liczbą kanałów pamięci i nowymi gniazdami rozszerzeń Gen5, wyróżniają się znacznym wzrostem wydajności w porównaniu z maszynami poprzedniej generacji.

Nie tylko klientów, ale także dostawców serwerów cieszy coraz większa rywalizacja pomiędzy Intelem a AMD. Im większy wybór platform serwerowych, tym lepiej dla wszystkich. Dzięki szerokiej ofercie procesorów dostawcom łatwiej stworzyć, a klientom łatwiej znaleźć rozwiązanie najlepiej dopasowane do konkretnej aplikacji lub środowiska IT. Przykładowo, zależnie od warunków posiadanych licencji na oprogramowanie można wybierać między rozwiązaniami o dużej gęstości rdzeni a sprzętem, który będzie miał ich niewiele, wciąż oferując odpowiednią wydajność.

Tajwański DigiTimes spodziewa się, że udział w rynku serwerów z procesorami AMD EPYC wzrośnie w ciągu roku do 18 proc. (dla przypomnienia, w 2020 r. było to 10,1 proc). To imponujący skok w tak krótkim czasie, ale czy ma to już wyraźne przełożenie na trendy sprzedażowe?

– Opieramy swoje rozwiązania serwerowe na procesorach Intela, zaś układy AMD stanowią uzupełnienie naszej oferty. W mojej ocenie raczej nie nastąpi tu rewolucja. Pojawiają się ciekawe pomysły na wykorzystanie rozwiązań AMD, ale nie jest to jeszcze duża liczba projektów. Widzimy potencjał AMD w projektach wymagających wysokiej mocy obliczeniowej, chociażby w przypadku centrów obliczeniowych na wyższych uczelniach, jednak trudno mówić o skali, która zmieni krajobraz rynku w najbliższym czasie – mówi Grzegorz Szurlej.

Zarówno na świecie, jak i w Polsce procesory AMD są wyraźnie mniej popularne niż Intela. Zyskują jednak w oczach dostawców i klientów, ponieważ są zastosowania, w których nie tylko dorównują produktom konkurencji, ale je przewyższają.

– Obecnie to AMD jest liderem wcześniej wprowadzającym przełomowe rozwiązania, takie jak procesory ze wsparciem dla PCI Express 4.0 czy obsługa pamięci DDR5. Realna konkurencja na rynku jest bardzo dobra dla klientów, gdyż mogą oni otrzymać wydajne rozwiązania w najlepszej cenie, a w dodatku lepiej dopasować sprzęt do swoich potrzeb. Intel już zapowiada nową generację swoich procesorów Xeon, której oczekujemy na początku roku. Wtedy też konkurencja nieco wyrówna się technologicznie – twierdzi Marcin Brzeziński.

Kontynuowany będzie trend konsolidacji sprzętu, który polega na zastępowaniu większej liczby starszych rozwiązań mniejszą liczbą nowych, co zmniejszy koszty utrzymania infrastruktury. To tym łatwiejsze, że powszechnym zjawiskiem na rynku stała się wirtualizacja, która pozwala na uruchamianie wielu instancji systemów operacyjnych na jednym serwerze. Pomagają w tym wzrost wielkości obsługiwanej pamięć RAM, jak też szybkie dyski NVMe i coraz dostępniejsze rozwiązania szybkich sieci lokalnych (np. 100GbE).

– Jednakże nowe rozwiązania nie zastępują całkowicie starszych rozwiązań, szczególnie w tańszym segmencie. Mimo słabszych parametrów starsze generacje będą dostępne jeszcze przez dłuższy czas, gdyż będą oferowane w niższej cenie. W ich wypadku ważnym czynnikiem będzie także poziom zużycia energii. Nowe procesory mimo ulepszonego procesu produkcyjnego i większej wydajności zużywają jednostkowo coraz więcej energii – mówi Marcin Brzeziński.

Zdaniem integratora

Tomasz Blicharz, dyrektor działu rozwoju i promocji BooX, pion banków komercyjnych, Asseco Tomasz Blicharz, dyrektor działu rozwoju i promocji BooX, pion banków komercyjnych, Asseco  

Zmiana sposobu dokonywania zakupu usług i infrastruktury informatycznej przez klientów wymaga dużej elastyczności ze strony producentów. Ważne jest, aby struktura kosztowa podążała za trendami wyznaczanymi przez konsumentów. Od dłuższego czasu obserwujemy trend migracji aplikacji, które działają w wewnętrznych strukturach organizacji, do chmur publicznych lub hybrydowych. W modelach on-premise pozostają tylko systemy krytyczne pod względem bezpieczeństwa i poufności danych. Klienci powoli też zdają sobie sprawę, że tworzenie i eksploatacja aplikacji w chmurach publicznych może kosztować więcej, ale ich organizacje zyskują większą elastyczność, poprzez zintegrowany DevOps. Okazało się też, że przejście do chmury obliczeniowej narzuca znacznie większą dyscyplinę planowania zasobów i zarządzania oczekiwaną wydajnością, tak zwany capacity planning. Warto dodać, że przyszłe modele operacyjne są silnie determinowane przez wykorzystanie standardów chmurowego modelu wytwarzania i eksploatacji aplikacji. Zmiana rodzaju infrastruktury wymaga innego stylu pracy specjalistów z działów IT i zespołów wsparcia. Powstają nowe role, zakresy obowiązków, poziomy odpowiedzialności. Niektóre role mogą stać się zbędne. Dostarczanie usług w modelach hybrydowych będzie wymagało wykształcenia nowych umiejętności i organizacji procesów wewnętrznych w organizacjach.