W serwerach od lat obowiązywał podział na modele wieżowe, rackowe oraz kasetowe (blade). Nie znaczy to wcale, że będzie tak już zawsze. Kariera serwerów typu blade, które przez pewien czas były bardzo popularne, wydaje się dobiegać końca. Producenci albo całkowicie rezygnują z ich wytwarzania, albo ograniczają ich wybór w ofercie.

Dzieje się tak, ponieważ przede wszystkim nastąpił duży wzrost prędkości transferu w sieciach SAN i Ethernet. Przyspieszeniu nie sprostały architektury, np. midplane, czyli układów łączących serwery i przełączniki w obudowach – twierdzi Sebastian Perczyński, Presales Consultant z Fujitsu.

Pojawiła się zatem potrzeba zastosowania nowych obudów, a to kłóci się z ideą konstrukcji kasetowej, która miała zapewniać skalowalność wyłącznie przez wymianę modułów serwerowych. Na spadek zainteresowania serwerami blade wpływa też przejście od klasycznej wirtualizacji do rozwiązań chmurowych i definiowanych programowo (Software Defined). W takim przypadku konieczne jest dostosowanie sprzętu do najnowszych technik (Ethernetu 100 Gb/s, FC 32/64 Gb/s, dysków NVMe). A tę cechę mają klasyczne serwery rackowe i zyskujące coraz większą popularność platformy dla środowisk chmurowych.

Serwery rackowe umożliwiają realizowanie koncepcji SDI (Software Defined Infrastructure) i HCI (HyperConverged Infrastructure), spełniających potrzebę upraszczania infrastruktury serwerowo-pamięciowej. Dzięki nowym trendom nie trzeba się długo zastanawiać, jakie wykorzystać serwery i macierze, w jakich grupach i konfiguracjach, z jakimi dyskami, bo wiele potrzebnych funkcji zapewnia oprogramowanie urządzeń. Kod stworzony przez programistów realizuje dużą część zadań dotąd ręcznie wykonywanych przez administratorów. Nie trzeba się martwić o zwymiarowanie systemu pod kątem potrzeb firmy, bo klient dostaje gotowe rozwiązanie, przetestowane i certyfikowane. W dodatku dające się łatwo skalować przez dokładanie kolejnych takich samych węzłów.

Klienci coraz częściej poszukują rozwiązań Software Defined Ready, takich jak serwery rackowe. Urządzenia te zapewniają dostosowywanie posiadanych zasobów do dynamicznie zmieniającego się zapotrzebowania ze strony obsługiwanego oprogramowania. Wyróżnia je możliwość dużej koncentracji mocy obliczeniowej i skalowalność.

Dlatego ten typ serwerów cieszy się dziś ogromnym zainteresowaniem ze strony klientów – twierdzi Rafał Szczypiorski, Business Development Manager, Global Compute and Networking w Dell EMC.

Wśród nowych trendów technicznych w świecie serwerów za istotną zmianę można uznać coraz częstsze używanie dysków NVMe, dużo szybszych od standardowych nośników. Są znacząco droższe, ale uzyskiwany wzrost wydajności w przypadku środowisk HPC (High Performance Computing), rozwiązań hiperkonwergentnych itp. uzasadnia poniesione koszty.

To największa zmiana w serwerach w ostatnim czasie. Na rynku pojawiają się wciąż nowe platformy umożliwiające montowanie szybkich dysków NVMe – podkreśla Krzysztof Szablowski, Engineers Team Leader w S4E.

 

Jak się wyróżnić, kiedy nie ma czym?

Ponieważ serwery bazują na standardowych rozwiązaniach (wszyscy korzystają z komponentów Intela, rzadziej AMD), ich producentom trudno się wyróżnić. Produkty Intela niezmiennie są wybierane najczęściej, bo klienci, którzy rozbudowują firmowe środowiska, tworząc chociażby klastry, np. z wykorzystaniem wirtualizatorów VMware, chcą zadbać o homogeniczność infrastruktury. Dokupują więc sprzęt podobny do tego, jaki już posiadają, który w zdecydowanej większości jest wyposażony w procesory rynkowego potentata.

Jeśli serwery mają w środku to samo, producenci nie mają dużego pola do popisu. Mogą się wyróżnić bardziej funkcjonalnym firmware'em. Próbują też grać ceną, ale w sytuacji stosowania komponentów od tego samego dostawcy również tutaj mają małe pole manewru – zauważa Krzysztof Szablowski.

Dlatego serwery to nie jest łatwy rynek. W dodatku producenci przyzwyczaili klientów do częstych zniżek. W efekcie ceny katalogowe urządzeń różnych dostawców niewiele się obecnie różnią. A niskie ceny oznaczają spadek zainteresowania dostawców mniejszymi projektami, na których trudniej zarobić.

Z drugiej strony kłopot jest też z projektami największymi, bo wielcy dostawcy usług w chmurze publicznej sami składają sobie serwery z zamówionych komponentów. Budują sprzęt, który zapewni im największą elastyczność i najprostszą administrację rozwiązaniami. W przypadku tysięcy serwerów będzie to miało przełożenie na znacząco mniejszy koszt zakupu i eksploatacji. Na szczęście sprawdza się to tylko u gigantów, bo nawet właściciele centrów danych wybierają oferty tradycyjnych dostawców serwerów.

Kupują od producenta, bo potrzebują supportu. Nie dysponują takimi zasobami ludzkimi, by mogli we własnym zakresie zająć się obsługą tworzonej samodzielnie infrastruktury – wyjaśnia Krzysztof Szablowski.

To dowód, że na serwer trzeba patrzeć całościowo, zwracać uwagę nie tylko na sprzęt, ale także na dołączone do niego usługi wsparcia. Nie można więc zapominać o serwisie. Rafał Szczypiorski przekonuje, że dobra obsługa posprzedażna przynosi ogromne korzyści i może zaważyć na wyborze oferty przez klienta. Dlatego pojawiają się nowe metody świadczenia pomocy technicznej wychodzące naprzeciw oczekiwaniom klientów.

Idealnym przykładem jest możliwość nadania odpowiedniego priorytetu zgłoszenia przez samego klienta. To nie serwis decyduje jak ważne jest zgłoszenie, a klient  – mówi przedstawiciel Dell EMC.

Czym różni się wirtualizacja od konteneryzacji?

Gdy rosła moc obliczeniowa i pojemność serwerów, tradycyjnie uruchamiane aplikacje przestały wykorzystywać wszystkie dostępne zasoby. Dlatego powstała koncepcja konsolidowania wielu systemów i aplikacji w ramach jednego fizycznego serwera za pomocą wirtualizacji, to znaczy użycia oprogramowania do emulowania wielu systemów sprzętowych. Hypervisor, czyli wirtualizator, tworzy warstwę między sprzętem a maszynami wirtualnymi, których zakładanie i uruchamianie umożliwia. Mogą one być wyposażone w różne systemy operacyjne, a mimo wszystko działać na tym samym serwerze fizycznym – każda ma własne pliki binarne, biblioteki i aplikacje, które obsługuje. Dlatego pojedyncza maszyna wirtualna jest „ciężka”, bywa, że ma wiele gigabajtów. Wirtualizacja systemu operacyjnego zyskała na popularności w ostatniej dekadzie, umożliwiając przewidywalne działanie maszyn wirtualnych i łatwe ich przenoszenie z jednego środowiska serwerowego do innego.
Wykorzystywana w ostatnim czasie coraz powszechniej konteneryzacja także gwarantuje uruchamianie wielu izolowanych systemów, ale w ramach tego samego systemu operacyjnego hosta. Działając na serwerze fizycznym, każdy kontener współużytkuje jądro systemu operacyjnego, takiego jak Linux czy Windows, a zazwyczaj także pliki binarne i biblioteki. Współużytkowane komponenty przeznaczone są tylko do odczytu. W rezultacie kontenery są wyjątkowo „lekkie”. Ich rozmiar może być liczony w megabajtach, a nie gigabajtach, natomiast ich uruchomienie zajmuje zaledwie kilka sekund, a nie minut, jak w przypadku maszyn wirtualnych. Konteneryzacja odciąża administratorów IT i to nawet bardziej niż wirtualizacja. Skoro bowiem kontenery używają tego samego systemu operacyjnego, wsparcia (m.in. dostarczania aktualizacji, poprawek) wymaga tylko jeden system operacyjny.

 

Nie bez znaczenia dla klientów podejmujących decyzje biznesowe jest też dostępność i jakość oprogramowania zarządzającego. Nie wystarcza już takie, które zapewnia zarządzanie jedynie serwerami. Klienci potrzebują narzędzi uniwersalnych, dzięki którym jednocześnie mogą objąć zarządzaniem również środowisko pamięci masowej oraz sieciowe.

Idealnym rozwiązaniem wydaje się być możliwość definiowania profili dla określonych grup sprzętowych, zgodnie z którymi każde nowe urządzenie po podłączeniu do sieci zostanie automatycznie skonfigurowane – twierdzi Sebastian Perczyński.

W obliczu mającego nastąpić ogromnego wzrostu cen energii elektrycznej wyróżnikiem oferty może być energooszczędność serwerów. Wyższa cena prądu bardzo wpłynie na koszt utrzymania serwerów, a w efekcie docelowej usługi przez nie realizowanej. Dlatego klienci będą szukać konstrukcji serwerowych, które zapewnią im niższe rachunki za energię.

Powinno wzrosnąć zainteresowanie ekonomicznymi technikami chłodzenia, zapewnianymi przez producentów serwerów jak również oferowanymi przez niezależnych dostawców – twierdzi Krzysztof Szablowski.

Serwerowe systemy operacyjne

System operacyjny zawsze pełnił taką samą rolę – zapewniał aplikacjom dostęp do zasobów sprzętowych. Ostatnie lata nie przyniosły w tej kwestii żadnych zmian.

Bezpieczeństwo, stabilność, wydajność i skalowalność – oto, czego oczekuje się od nowoczesnego systemu operacyjnego. Ma dobrze pracować w maszynie fizycznej, wirtualnej, instancji chmurowej lub wykorzystywany pasywnie jako obraz kontenera  – tłumaczy Wojciech Furmankiewicz, Regional Manager, CEE w Red Hat.

Obecne systemy operacyjne ewoluują, zmieniają postać z monolitycznej na modułową. Projektując kolejne wersje, twórcy zmierzają do tego, żeby użytkownicy nie musieli instalować całego oprogramowania, tylko wybierać to, co w danym momencie jest im potrzebne.

Bardzo istotne stają się funkcje ułatwiające utrzymanie systemu. Ponieważ podczas wprowadzania zmian i aktualizacji nie da się uniknąć błędów, przydatna jest możliwość szybkiego powrotu do poprzedniego stanu, w którym problem nie występował. Pomocna będzie także opcja instalowania poprawek, przede wszystkim związanych z lukami w zabezpieczeniach i stabilnością systemu, bez konieczności wyłączania go.

Gdy w przedsiębiorstwie trzeba czekać nawet miesiąc na okno serwisowe i przez ten czas systemu nie można zaktualizować, taka funkcja bardzo się przydaje – twierdzi Tomasz Surmacz, dyrektor handlowy w SUSE Polska.

Ma to znaczenie zwłaszcza w przypadku systemów udostępnianych na zewnątrz, w których poprawki związane z podniesieniem poziomu bezpieczeństwa muszą być wprowadzane natychmiast po ich wydaniu.

Ważnym zadaniem serwerowego systemu operacyjnego jest również łatwe budowania klastrów serwerów – zarówno w trybie active-active, jak również active-passive. Klastry można uruchamiać w jednej sieci lokalnej, ale też w miejscach oddalonych o wiele kilometrów, gdzie serwery są wykorzystywane zdalnie, budując w ten sposób środowisko HA (High Availability).

 

Zdaniem integratora

Dzianis Kaszko, Sales & Marketing Director, Comtegra

To, które serwery są w danym momencie tańsze, wynika z polityki dostawców, ich programów cenowych i lojalnościowych. Zdarza się, że serwer o bardzo podobnych parametrach kosztuje mniej u producenta A, ale w konfiguracji z innymi komponentami tańszy jest u producenta B. Bardzo często ważnym kryterium wyboru (zwłaszcza dla przedsiębiorstw z dużymi środowiskami IT) są koszty zarządzania. Jeśli klient ma kilkadziesiąt serwerów jednego producenta i administruje nimi za pomocą stworzonego dla nich rozwiązania, dokupienie kolejnych maszyn innej marki rodzi problemy. Musiałby zarządzać nimi, używając dodatkowych narzędzi. Bardziej ekonomiczny jest zatem zakup droższych o kilka procent urządzeń tego samego dostawcy i zachowanie spójnego środowiska. Nie mniej ważna jest jakość serwisu. Generalnie w ostatnim czasie można było zaobserwować jej spadek, więc vendorzy, którzy nie obniżyli poziomu usług, zaczynają wygrywać. Klient docenia fakt, że jego problemy rozwiązywane są w Polsce, nie musi czekać dwa tygodnie na jakiś komponent itp. Ma to dla niego ogromne znaczenie, zwłaszcza jeśli jego środowisko produkcyjne musi działać w trybie 24/7. Kolejną ważną rzeczą, którą może wyróżnić się producent, jest krótszy termin dostawy.

 

Podobnie jak w przypadku innych komponentów, które składają się na środowisko IT, istotnym aspektem serwerowego systemu operacyjnego jest koszt utrzymania. Jego znaczenie ciągle rośnie, bo na rynku jest coraz trudniej o fachowy personel informatyczny, a pracy w dziale IT przybywa. W związku z tym coraz potrzebniejsze są narzędzia wspierające administratorów w codziennych obowiązkach, a producenci systemów operacyjnych dołączają do nich rozwiązania ułatwiające zarządzanie infrastrukturą centrum danych, nie tylko uruchomioną za pomocą ich oprogramowania. Dzięki tym narzędziom można zoptymalizować administrowanie całym środowiskiem oraz zwiększyć jego ochronę, np. uzyskując kontrolę nad usuwaniem luk w zabezpieczeniach.

Za pomocą oprogramowania w centrum danych realizowana jest obecnie – wspomniana już przy okazji serwerów – idea Software Defined Infrastructure. Buduje się infrastrukturę, używając standardowych elementów sprzętowych, czyli serwerów z dyskami, a całą „inteligencję” wnosi oprogramowanie. Na bazie systemu operacyjnego dostarczane są m.in. usługi zwirtualizowanej sieci i pamięci masowej dla chmury prywatnej, narzędzia do zarządzania infrastrukturą definiowaną programowo oraz coraz ważniejsze usługi kontenerowe. Dzięki tym ostatnim można elastycznie korzystać z oprogramowania – bardzo szybko i niezależnie od infrastruktury instalować i uruchamiać aplikacje oraz wymuszać ich zamknięcie, zgodnie z aktualnymi potrzebami.

Wirtualizacja kontra konteneryzacja

Rośnie trend wykorzystywania kontenerów wszędzie, gdzie tylko to możliwe. To efekt m.in. ich lekkości, szybkości uruchamiania, bardziej optymalnego użycia zasobów oraz łatwości budowania nowych aplikacji w atrakcyjnej architekturze mikrousług. Stosowanie tych rozwiązań wpływa na obniżenie kosztów utrzymania infrastruktury i poprawę zwinności biznesu. Dlaczego zatem jeszcze nie wszystko jest jeszcze skonteneryzowane?

Jak wyjaśnia Wojciech Furmankiewicz, konteneryzacja polega na współużytkowaniu jądra systemu węzła przez wiele aplikacji pracujących w odizolowanych procesach. Dlatego, po pierwsze, wersja jądra jest taka sama dla wszystkich, a po drugie, awaria jądra oddziałuje na setki gęsto upakowanych wykorzystujących je kontenerów. W przypadku uruchamiania nowoczesnych aplikacji, które są zaprojektowane do pracy w takim środowisku, ma to niewielkie znaczenie.

Jeśli jednak firmowe systemy są bardziej tradycyjne, wymagają specyficznej wersji jądra i źle znoszą awarię systemu, lepsza będzie w ich przypadku wirtualizacja – wyjaśnia przedstawiciel Red Hata.

Jej cechą nadrzędną jest dowolność wersji i rodzaju systemu w przypadku każdej pracującej aplikacji. W efekcie awaria jednej maszyny wirtualnej nie ma wpływu na inne. Na jednym hoście mogą pracować zarówno systemy Linux, jak i Windows.

Dlatego przedsiębiorstwa są zmuszone utrzymywać te „ciężkie” obiekty i opiekować się ich złożonym cyklem życia. To kompromis wynikający z bilansu zysków i start – twierdzi Wojciech Furmankiewicz.

W efekcie firmy są skazane na wiele różnych platform, środowiska hybrydowe, wielochmurowe oraz takie, które ciągle wymagają przeznaczonych dla nich maszyn fizycznych. W tak złożonej infrastrukturze niezbędne są sprawne systemy zarządzania i automatyzacji procesów, które ułatwią utrzymywanie środowisk, zarówno kontenerowych, jak i wirtualnych.

Zdaniem specjalistów

Wojciech Furmankiewicz
Regional Manager CEE, Red Hat

Już dawno minęły czasy, kiedy system operacyjny był instalowany ręcznie w pełnej postaci. Obecnie liczy się maksymalna unifikacja i automatyzacja procesu powoływania nowych środowisk. System operacyjny jest jednym z elementów definiowanych jako Infrastructure as a Code. Powinien zapewniać zautomatyzowaną konfigurację urządzeń sieciowych, systemów pamięci masowej oraz ich integrację z zewnętrznymi elementami budowanej infrastruktury.

Tomasz Pietrzak
Infrastructure Solutions Group Manager, Dell EMC

Polski rynek serwerów już od kilku lat rośnie bardzo dynamicznie, a nowych klientów stale przybywa. Odbywa się to wbrew wcześniejszym przewidywaniom, które głosiły spadek lub w najlepszym wypadku stagnację sprzedaży tych produktów, spowodowane wzrostem popularności chmury publicznej. Co istotne, dotyczy to każdego segmentu odbiorców tych urządzeń – nie tylko największych przedsiębiorstw, ale także średnich i małych firm, które również dostrzegają nowe możliwości wykorzystania serwerów. Tym bardziej, że ceny rozwiązań serwerowych znacznie się obniżyły a do tego są one bardzo łatwo skalowalne.