Kilka
lat temu analitycy IDC przygotowali raport, z którego wynika, że
wirtualizacja serwerów całkowicie zmieniła ekonomiczny model centrów danych.
W tym samym dokumencie można znaleźć informację, że głównym czynnikiem,
skłaniającym firmy do wdrożenia wirtualizacji serwerów, jest konsolidacja. Dzięki
niej bowiem następuje ograniczenie liczby serwerów w przedsiębiorstwie.
Zdaniem analityków poddane wirtualizacji struktury serwerowe są bardziej
niezawodne niż niepoddane, a na dodatek łatwiej przywrócić ich działanie
po awarii systemu. Oczywiście firmy korzystają też z innych rodzajów
wirtualizacji, np. desktopów, aplikacji czy storage’u. Liczni producenci
systemów przekonują, że wprowadzanie w przedsiębiorstwach kolejnych
rodzajów wirtualizacji zbliża je do stworzenia prywatnej chmury. Nie ma też
wątpliwości, że z coraz większą dynamiką wkracza ona do biznesu, stosuje
się ją już w środowiskach produkcyjnych i testowych.

 

W Polsce jak na Zachodzie

Tomasz Jaworski, HP
Datacenter Transformation Sales Specialist Cloud Champion for Poland, twierdzi,
że wirtualizacja jest koncepcją, która – ogólnie rzecz ujmując
– polepsza wykorzystanie infrastruktury IT. – Można powiedzieć, że
wirtualizacja w pewien sposób uwalnia użytkownika od fizycznych ograniczeń
poszczególnych komponentów –
wyjaśnia. – Wiąże się to z wprowadzeniem
dodatkowej warstwy, czyli po prostu oprogramowania, między sprzęt
i korzystające z niego programy.

Bez dużego ryzyka można stwierdzić, że wirtualizacja
serwerów jest dziś najpopularniejszym rodzajem wirtualizacji. Trudno się temu
dziwić, przecież zmniejsza koszty inwestycji w zakresie sprzętu, obniża
rachunki za chłodzenie i usprawnia zarządzanie. Zachodnie korporacje
niemal masowo korzystają z jej dobrodziejstw, a nasi przedsiębiorcy
nie pozostają w tyle. Niemal z miesiąca na miesiąc rośnie liczba firm
przekonujących się do zalet środowiska wirtualnego, choć oczywiście wciąż
w wielu instytucjach stosuje się fizyczne serwery.

Tomasz Jaworski

HP Datacenter Transformation Sales Specialist Cloud Champion
for Poland

Zwirtualizowana struktura IT
umożliwia tworzenie i wydzielanie środowiska projektowego. Infrastruktura
IT dzięki wirtualizacji zapewnia już dzisiaj bardzo szybkie tworzenie,
udostępnianie i wydzielanie środowisk projektowych, aplikacyjnych
i innych, które służą do realizacji celów biznesowych przedsiębiorstwa. W rozwiązaniach zwirtualizowanych
ujawnia się jednak słabość środowiska. Często stworzenie
i udostępnienie kolejnego podsystemu IT trwa znacznie krócej niż
zatwierdzenie wymagań, budżetu i przejście kolejnych etapów procesu
decyzyjnego. Wraz ze wzrostem skali biznesu rodzi to określone koszty. Ekonomia
analizuje te zjawiska za pomocą teorii kosztów transakcyjnych.

Trochę historii

• Już w latach 60. XX w. stosowano Virtual
Memory i partycjonowanie serwerów.

• W latach 70. zaczęto wykorzystywać wirtualny
system operacyjny.

• W latach 80. nastąpiła wirtualizacja sieci, a
w 90. wirtualizacja sieci SAN.

• Na początku lat 90. STK wprowadziła pierwsze
dyski wirtualne.

• Od 2002 r. rośnie zainteresowanie
wirtualizacją serwerów.

• Od 2005 r.
obserwujemy wzrost popularności wirtualizacji storage’u.

 

 

Robert Kleniewski, Infrastructure IT Architect
w IBM-ie, jest zdania, że na wirtualizację najczęściej decydują się
przedsiębiorstwa posiadające grupy serwerów albo partycji, których konfiguracja
zmienia się dynamicznie, np. ze względu na konieczność tworzenia nowych lub
modyfikacji istniejących środowisk. – Klientami firm wdrożeniowych są
też korporacje, które chcą uprościć lub ujednolicić swoją infrastrukturę
informatyczną w taki sposób, aby zmniejszyć koszty jej utrzymania

– utrzymuje Kleniewski.

Bardzo typowym
i z życia wziętym przykładem jest zainstalowanie serwerów plików,
poczty i aplikacji na jednym urządzeniu. – W bardzo wielu
przedsiębiorstwach stosuje się w takim przypadku kilka mniejszych serwerów
– tłumaczy Robert Kleniewski. – Tymczasem może się okazać, że
tańszym rozwiązaniem jest zakup jednej jednostki i uruchomienie na niej
kilku maszyn wirtualnych do obsługi serwera plików, serwera poczty
i własnej aplikacji.

W Polsce rośnie
zainteresowanie takimi koncepcjami. Robert Kleniewski twierdzi, że zdarzyło mu
się pracować nad projektem u klienta, który miał serwer
z zainstalowaną ponad setką maszyn wirtualnych. – Stosowanie fizycznych
serwerów jest po prostu mniej opłacalne
– mówi. – Generalnie
z roku na rok rośnie liczba maszyn wirtualnych zainstalowanych na
pojedynczym serwerze. Kilka lat temu było ich kilka, czasem kilkanaście.
Obecnie na przeciętnym serwerze fizycznym funkcjonuje kilkanaście, a nawet
kilkadziesiąt maszyn.

Stwierdzenie to znajduje
odzwierciedlenie w raportach analitycznych. We wspomnianym opracowaniu IDC
oszacowano, że już w 2012 r. średnio na jeden serwer przypadnie osiem
maszyn wirtualnych. Liczba ta ma z każdym rokiem rosnąć. To trochę
akademickie ujęcie sprawy, ale pokazuje, że wirtualizacja serwerów na stałe
wkroczyła do środowisk informatycznych przedsiębiorstw.

Bo to się opłaca

Po latach rozwoju
wirtualizacja stała się koncepcją dojrzałą i różnorodną. Tomasz Jaworski
twierdzi, że obecnie głównym trendem jest jej dostosowanie do procesów
biznesowych. Podobnie sądzi Robert Kleniewski, który mówi, że wirtualizacja
może przyspieszać procesy biznesowe. 

– Wyobraźmy sobie sytuację, w której bank przymierza się do
wprowadzenia nowego produktu, np. kredytu hipotecznego –
wyjaśnia. –
Oczywiście taki produkt musi być obsługiwany przez jakąś aplikację lub system,
który najpierw trzeba stworzyć, a potem przetestować. Na końcu zostaje
uruchomiony. Napisanie i testowanie takiej aplikacji lub systemu wymaga
odpowiednich zasobów informatycznych, które trzeba dokupić albo wydzielić
z już istniejących. To drugie rozwiązanie można zastosować wtedy, kiedy
środowisko jest zwirtualizowane. Okazuje się, że wydzielenie zasobów
z istniejącej puli znacznie przyspiesza proces tworzenia nowego produktu bankowego.

Andrzej Kontkiewicz

VMware, Regional Presales Manager Eastern Europe

Przy obecnym zaawansowaniu technologii w zasadzie każdy
element infrastruktury IT może zostać poddany wirtualizacji. Biorąc pod uwagę
elementy, które działają w chmurze, wyróżniamy trzy grupy usług: IaaS,
czyli infrastruktura jako usługa, PaaS – platforma jako usługa, oraz
Software-as-a-Service – aplikacja jako usługa.

IaaS jest podstawowym modelem
chmury, w którym klient otrzymuje usługę w postaci oddania do
dyspozycji określonej mocy obliczeniowej, pamięci lub pamięci masowej.
W chmurze uruchamia swoje aplikacje. Ten model jest najwygodniejszy dla
firm, które w chmurze zainstalują wirtualne serwery i odtworzą na
nich posiadane już aplikacje. Użytkownicy IaaS mają duże możliwości
konfiguracji, ale sami muszą dbać m.in. o zapewnienie bezpieczeństwa
danych.

PaaS to
w uproszczeniu wszystko, co daje IaaS plus platforma aplikacyjna.
Użytkownik nie musi myśleć o wirtualnych serwerach, utrzymaniu systemu
operacyjnego i zarządzaniu nim. Dostaje konkretną platformę, na której
pisze aplikacje. Dostawca chmury musi je odpowiednio zabezpieczyć. PaaS jest interesującym rozwiązaniem dla tych, którzy
nie mają jeszcze aplikacji albo chcą je zbudować od nowa. Dostawcy PaaS będą się starali umożliwić
użytkownikom stworzenie systemu aplikacji gwarantującego zrealizowanie ich
koncepcji.

Software-as-a-Service
to usługa zapewnienia klientowi dostępu do programów. Aplikacje są
przechowywane i zarządzane przez zewnętrznego dostawcę. Z jednej
strony klient nie musi dbać o ich aktualizację czy pomoc techniczną dla
pracowników, ale z drugiej oddaje kontrolę nad nimi dostawcy.

 

 

Rzecz jasna każda
korporacja dąży do tego, aby produkt szybko pojawił się na rynku. Niewątpliwie
konieczność zakupu i konfiguracji nowej infrastruktury spowolni jego
wprowadzenie. Skutecznie wdrożony system do wirtualizacji umożliwia szybkie
rozpoczęcie prac. – W efekcie działania mające na celu stworzenie
nowego produktu mogą zostać bardzo skrócone
– przekonuje Robert
Kleniewski.

O biznesowych
zaletach wirtualizacji mówi też Tomasz Jaworski. – Coraz częściej
wirtualizacja desktopów staje się elementem systemu obsługi klienta
w bankach –
twierdzi. – Dzięki niej umowy zawierane są
w postaci elektronicznej. Na ekranie tabletu wyświetla się umowę oraz
pozostałe informacje. Urządzenie umożliwia też odręczne podpisywanie
formularzy. Taki model biznesowy zapewnia obniżenie kosztów przetwarzania
i obiegu dokumentów.

Według Roberta
Kleniewskiego producenci rozwijają systemy do wirtualizacji równolegle dla
środowisk z procesorami Power i Intel. Bez względu na to, którą drogę
rozwoju wybrać, okazuje się, że zazwyczaj kolejnym krokiem w budowaniu
struktur zwirtualizowanych jest uruchomienie systemów typu cloud, zwłaszcza
private cloud. W dużym uproszczeniu chmura prywatna to system
informatyczny oraz zasoby sprzętowe znajdujące się w firmie, umożliwiające
automatyczne utworzenie i udostępnienie środowiska pracy każdemu
uprawnionemu pracownikowi.

 

Rynek z potencjałem

Podobny optymizm wyraża
Artur Cyganek, Country Manager w polskim oddziale Citriksa. Według niego
polski rynek jest już mocno nasycony, jeśli chodzi o wirtualizację
serwerów, a największy potencjał tkwi w segmencie aplikacji
i desktopów. – Wirtualizacja nie jest już tylko hasłem reklamowym
przekonuje. – Jej zalety dostrzegają nie tylko menedżerowie dużych
korporacji, ale i firm średniej wielkości. Z roku na rok wdraża się
coraz więcej coraz lepszych rozwiązań, które stają się nawet projektami
referencyjnymi dla różnych środowisk.

Korzyści biznesowe mogą
być bardzo wymierne – przeliczane na złotówki, albo trochę mniej
zauważalne. Artur Cyganek do tych drugich zalicza większą efektywność
i elastyczność infrastruktury IT. Zwłaszcza takiej, w której
wykorzystuje się smartphone’y i tablety. Wirtualizacja sprawdza się
zwłaszcza tam, gdzie pracownicy użytkują rozwiązania mobilne, za pośrednictwem
których uzyskują zdalny dostęp do sieci korporacyjnej, ale ich systemy różnią
się od systemu firmowego. Naturalnie obszarów, w których można zastosować
różne warianty wirtualizacji, jest więcej, dlatego Artur Cyganek
z optymizmem patrzy w przyszłość. – Mam podstawy do stwierdzenia,
że w br. wielkość sprzedaży systemów do wirtualizacji aplikacji i desktopów podwoi się u nas
w porównaniu z notowaną w 2011
– mówi. – Dobre
perspektywy widzę zarówno w środowisku korporacyjnym, jak
i samorządowym. Duże podmioty publiczne często borykają się
z problemem zapewnienia dostępu do aplikacji różnym grupom użytkowników
– pracownikom, funkcjonariuszom policji, straży pożarnej.

Robert Kleniewski

Infrastructure IT Architect w IBM-ie

Jest kilka czynników, które dynamizują zainteresowanie
wirtualizacją. Firmy potrzebują coraz więcej mocy obliczeniowej, dlatego
zwracają się z prośbą o pomoc w doborze nowego sprzętu.
W typowych sytuacjach już po pierwszej analizie wymagań okazuje się, że
nowy sprzęt nie tylko musi być wydajny, ale powinien umożliwiać łatwe dostosowanie
się do późniejszych zmian w infrastrukturze IT. Przykładem takich zmian
jest konieczność częstego udostępniania nowych środowisk testowych.
W przypadku rozwiązań niezwirtualizowanych tego typu zmiany są
czasochłonne, a co za tym idzie kosztowne. Przeciwieństwem są rozwiązania
zwirtualizowane, w których modyfikacje infrastruktury IT bardzo łatwo
przeprowadzić, poza tym nie wymagają zakupu dodatkowych komponentów
sprzętowych. Dzięki temu zapytanie o wymianę serwerów skutkuje często
wdrożeniem rozwiązania do wirtualizacji.

Kolejny czynnik
zwiększający zainteresowanie wirtualizacją to ciągła konieczność zmniejszania
kosztów utrzymania infrastruktury IT. Utrzymanie farmy kilkuset
odrębnych serwerów fizycznych i administrowanie nią jest dużo bardziej skomplikowane
niż analogicznej liczby serwerów wirtualnych, choćby
z powodu ujednolicenia typów interfejsów IO, a co za tym idzie
– wersji sterowników urządzeń. Ograniczaniu kosztów sprzyja też
jednoczesne korzystanie z fizycznych komponentów przez serwery wirtualne,
dzięki czemu potrzeba mniej adapterów FC, LAN, portów w przełącznikach SAN
itd.

 

Przedstawiciel Citriksa
podkreśla, że dane mogą być różnego rodzaju, np. zapis wideo z systemu
monitoringu, przekaz z kamery przenośnej, wbudowanej w tablet lub w
smartphone. Także urzędy wielooddziałowe potrzebują wirtualizacji, zwłaszcza
te, w których niezbędny jest dostęp do scentralizowanych danych, czyli
takie instytucje, w których ważne informacje przechowuje się
w centralnej bazie danych, a nie na terminalach. Na stacjach
końcowych nie ma też żadnych ważnych dla działania urzędu aplikacji.
W Polsce jest wiele takich urzędów, a to dobra wiadomość dla firm
specjalizujących się we wdrożeniach systemów wirtualizacji.

 

Nie tylko miód

Wirtualizacja ma nie
tylko zalety. Tomasz Jaworski zauważa, że może ona doprowadzić do mnożenia
w przedsiębiorstwie narzędzi do zarządzania. A przecież dla wielu
dyrektorów odpowiedzialnych za systemy informatyczne priorytetem jest dziś
redukowanie złożoności środowisk wirtualnych. Poza tym skalowanie lub
przejście z infrastruktury wirtualnej do chmury nie jest proste. – Na
szczęście na rynku są już systemy, które eliminują wąskie gardła, upraszczają
zarządzanie, zapewniają rozwiązanie problemów z bezpieczeństwem
i stanowią fundament do budowy chmury prywatnej
– twierdzi
Jaworski.

Z kolei Renata Balcerzak-Rawa, Channel Account Manager
Poland w Trend Micro, przyznaje, że w ostatnim czasie rośnie
znaczenie systemów do zabezpieczania struktur zwirtualizowanych. – Wiele
instytucji ma infrastrukturę mieszaną, to znaczy składającą się z serwerów
fizycznych i wirtualnych, a także infrastrukturę chmurową –

tłumaczy. – Niektóre starają się chronić za pomocą przestarzałych systemów.
Konsekwencją bywają luki w zabezpieczeniach, trudności z uzyskaniem
zakładanej wydajności, a wreszcie ograniczenie możliwości inwestowania
w wirtualizację i przetwarzanie w chmurze. Tymczasem do ochrony
środowisk zwirtualizowanych należy stosować techniki stworzone specjalnie
w tym celu.

Właściwe zabezpieczenie polega na kompleksowej ochronie
całego hosta i wszystkich maszyn wirtualnych. Maszyny wirtualne objęte są
ochroną niezależnie od stanu, w jakim się znajdują, np. maszyny nowo
utworzone, sklonowane, uśpione, przywrócone do poprzedniego stanu. –
Rozwiązanie podnosi wydajność hosta i gości – maszyn wirtualnych,
zapewnia też większe ich zagęszczenie na jednym hoście –
mówi
Balcerzek-Rawa. – W konsekwencji wzrasta współczynnik konsolidacji, co
umożliwia zmniejszenie kosztów ponoszonych przez firmę.

Wyeliminowanie agentów
zwalnia administratorów z obowiązku ich instalacji, konfiguracji czy
aktualizacji zarówno pod kątem zabezpieczeń, jak i wersji oprogramowania.
Zastosowanie przez przedsiębiorstwo technologii bezagentowej ochrony zapewnia
szybszy zwrot inwestycji w zakresie wirtualizacji, a także istotne
obniżenie kosztów operacyjnych.

Zdaniem integratora

Paweł Mączka, dyrektor Działu Technicznego Pamięci Masowe &
Systemy Bezpieczeństwa Danych, Infonet Projekt

Zalety
wirtualizacji storage’u dobrze obrazuje nasze wdrożenie w Danonie. Macierze, z
których korzystał producent jogurtów, były fizycznie i logicznie niezależne.
Aby z nich korzystać, należało za każdym razem logować się do oddzielnego
systemu. Wirtualizacja połączyła wszystkie macierze w jeden logiczny podsystem
dyskowy, którym zarządza się za pośrednictwem jednej konsoli. Można powiedzieć,
że wirtualizacja to pewnego rodzaju system nakładkowy, którym przykryto
wszystkie podsystemy dyskowe. Dzięki niej uniezależniamy się całkowicie od
technologii i ograniczeń danego producenta macierzy, zyskując unikatowe
funkcje, które do tej pory przypisane były tylko do wybranych modeli macierzy. Klient nawet nie musi wiedzieć, ile ma macierzy. Dla niego jest to jeden
spójny system. W
opisywanym rozwiązaniu zastosowaliśmy macierz IBM Storwize V7000. Nowa macierz
jednocześnie wchłania poprzednie instalacje i je wirtualizuje. Dotychczas
konkretna aplikacja korzystała ze wskazanej macierzy i dysków dostępnych w
obrębie wybranych grup RAID. Natomiast Storwize sprawia, że różne dyski są
postrzegane jak jedna logiczna całość. System może rozdzielać wszystkie bloki
danych po wszystkich dostępnych w wirtualizatorze dyskach. W efekcie te same
podsystemy działają znacznie wydajniej i lepiej.