CRN Polska Co Intel rozumie pod pojęciem wirtualizacji?

Dariusz Wittek Skłaniamy się do definicji tego zjawiska, którą zaproponowało IDC. Według niej można podzielić ów trend informatyczny na trzy etapy. Początki pierwszego, zwanego wirtualizacją generacji 1.0, sięgają 2006 r., kiedy na rynku pojawiły się pierwsze procesory ze sprzętowym wsparciem wirtualizacji Intel-VT. Wirtualizacja polega w tym przypadku na tym, że na jednym serwerze konsoliduje się kilka maszyn, które obsługują różne aplikacje, niekoniecznie ze sobą kompatybilne. Innymi słowy jeden serwer działa tak, jakby pełnił zadania kilku oddzielnych, tradycyjnych maszyn. W efekcie przedsiębiorstwa, które używają zwirtualizowanych serwerów, oszczędzają energię i zyskują na wydajności. Tego rodzaju systemy wirtualne wymagają niezawodnego działania zarówno sprzętu, jak i oprogramowania. Dostawcy oczywiście dostosowali się do tych wymagań. Wirtualizacja 2.0 umożliwia z kolei nie tylko lepsze wykorzystanie serwerów, ale również dynamiczne i elastyczne skalowanie zasobów. Najlepszym przykładem zastosowania tej funkcji może być sytuacja z 10 kwietnia 2010 r., kiedy portale internetowe obiegła wiadomość o katastrofie prezydenckiego samolotu. Internauci zaczęli szturmować serwisy informujące o tej sprawie. Jeśli portale działałyby na rozwiązaniach wirtualnych 2.0, serwisy cieszące się największą popularnością zostałyby natychmiast automatycznie przeniesione na najsilniejsze serwery, natomiast informacje rzadziej oglądane – na słabsze maszyny. W tej chwili jednak niewiele firm w Polsce wykorzystuje tego typu rozwiązania. Znam tylko jedno takie przedsiębiorstwo w kraju – SKOK Kopernik.

CRN Polska A trzeci, najbardziej zaawansowany etap wirtualizacji?

Dariusz Wittek To jest cloud computing – oparty na wirtualizacji 3.0, o którym od pewnego czasu tyle się mówi. Jednak na razie przykładów używania przez biznes w praktyce rozwiązań opartych na chmurze jest niewiele. Zakładamy, że rozpowszechnią się one na rynku dopiero około 2015 r. Dyskusje na temat cloud computingu nie są jednak oderwane od rzeczywistości. W tej chwili powstają chmury przechowujące dane użytkowników indywidualnych, którzy korzystają z aplikacji, kont pocztowych itp. oferowanych przez operatorów telekomunikacyjnych i portale internetowe. Wirtualizacja typu cloud computing sprzyja rozwojowi tych firm. Jednak z systemami wykorzystującymi chmurę wiążą się pewne kwestie, które wymagają rozstrzygnięcia. Cloud computing zaczyna nabierać realnych kształtów na rynku usług dla użytkowników indywidualnych dlatego, że nie mają oni oporów przed przechowywaniem swych danych w chmurze. Przynajmniej nie jest to tak drażliwa kwestia, jak w przypadku przedsiębiorstw. Bezpieczeństwo danych znajdujących się w chmurze jest kluczową sprawą z punktu widzenia firm. Niezbyt chętnie godzą się one na to, by ich zasoby znalazły się na zewnątrz ich własnych systemów IT. Trudno się zresztą temu dziwić.

CRN Polska Microsoft właśnie wprowadza usługę polegającą na udostępnieniu w ramach abonamentu pakietu jego aplikacji w chmurze (Business Productivity Online Standard Suite). W zestawie są programy Exchange, SharePoint, Live Meeting i Office Communications Online. To software przeznaczony dla firm.

Dariusz Wittek Producenci próbują wprowadzać na rynek różne produkty, czasami bez pewności, że odniosą one sukces. Czas pokaże, jak się sprawdzi rozwiązanie oferowane przez Microsoft. Cloud computing jest na tyle nowym podejściem do informatyki, że nie wszystkie szlaki związane z jego stosowaniem zostały przetarte, co widać wyraźnie zwłaszcza w dziedzinie prawa. Kto wie, jak klienci i polskie prawo podejdą do sprawy przechowywania ich danych przez Microsoft na serwerach znajdujących się poza granicami kraju.

CRN Polska Jak to w końcu jest obecnie z tą wirtualizacją – to pieśńprzyszłości czy fakt?

Dariusz Wittek Wirtualizacja to temat niezwykle pojemny i w gruncie rzeczy jeszcze słabo zdefiniowany. Dzisiaj firmy operują pojęciem wirtualizacji na różne sposoby, tak jak im wygodnie. Intel już od dawna uwzględnia w swoich procesorach i kartach sieciowych technologie wspierające rozwiązania wirtualizacji. Często wybiegamy w przyszłość i oferujemy produkty, których możliwości w danym momencie wykraczają poza praktyczne potrzeby klientów. Już pod koniec 2005 r. procesory Xeon MP były przygotowane do zastosowań wirtualnych. Xeon 5500, a także niedawno zaprezentowana przez Intela seria 5600, wspierają wirtualizację w jeszcze bardziej zaawansowanym stopniu, zwłaszcza w zakresie szyfrowania danych i bezpieczeństwa serwerów zwirtualizowanych, co jest niezwykle istotne w przypadku cloud computingu.

CRN Polska Kto inwestuje w wirtualne serwery? Klienci, którzy są zmuszeni do wymiany hardware’u, bo stary przestał działać?

Dariusz Wittek Wszystko zależy od polityki firmy. Duże przedsiębiorstwa z zasady wymieniają sprzęt co trzy, cztery lata, bo dłuższe kontrakty na ich obsługę kosztują zbyt dużo (chociażby z tego powodu, że firma serwisująca system musiałaby w przypadku wieloletniej umowy zaopatrzyć się w części na zapas – technologie bardzo szybko się zmieniają). Kupując nowy sprzęt, wybiera się dostosowany do rozwiązań wirtualnych w wersji 1.0, a przy kolejnej rozbudowie czy wymianie płynnie zaczyna się wykorzystywać elementy wirtualizacji 2.0. Natomiast mniejsze firmy posługują się często ze sprzętem, dopóki zupełnie się nie rozpadnie, dopiero potem szukają możliwości naprawy, najlepiej w ramach gwarancji. Zakup nowego sprzętu jest ostatecznością. To zła polityka. Stawiając w przedsiębiorstwie nowoczesne serwery, można naprawdę znacząco zredukować wydatki na energię elektryczną, co zapewnia zwrot nakładów na nowe serwery nawet w ciągu pięciu miesięcy, właśnie dzięki oszczędności na rachunkach za energię.