Przez ostatnich kilkanaście lat usługi chmury publicznej ugruntowały swoją pozycję na cyfrowym rynku. Obecnie dla klientów oczywiste są zarówno wady, jak też zalety tego modelu dostarczania zasobów oraz płynące z niego czynniki ryzyka. Przez ten czas okazało się ponadto, że chmura nie jest dla każdego – z różnych powodów. W wielu przypadkach przeszkodą bywają regulacje prawne, czasem wprost nakazujące przechowywanie danych lokalnie, a czasem na tyle nieprecyzyjne, że lepiej nie wystawiać się na „strzał” ze strony niekompetentnego w tym obszarze sędziego, gdyby doszło do procesu.

Zdarza się też, że ze względu na charakter przetwarzanych danych niewskazane jest, aby znajdowały się w oddalonym od firmy klienta centrum danych, gdyż ich przesyłanie w tę i z powrotem generuje zbyt duże opóźnienia. Natomiast na pierwszym miejscu rankingu przyczyn wskazywane jest oczywiście ryzyko związane z bezpieczeństwem, chociaż tu ma miejsce dość paradoksalna sytuacja, bowiem dla osób decydujących się z kolei na korzystanie z chmurowych zasobów kluczowym argumentem jest… wysoki poziom bezpieczeństwa i ciągłości pracy.

Jednak utrzymanie klasycznego modelu, zakładającego kupno i wdrożenie we własnej infrastrukturze serwerów oraz pamięci masowych, wiąże się z coraz większą liczbą wyzwań. Jedno z głównych jest związane z nieprzewidywalnym wzrostem ilości danych, w związku ze stale ewoluującymi środowiskami biznesowymi i wprowadzanymi nowymi usługami, co uniemożliwia zaplanowanie skalowalności infrastruktury IT. To prowadzi do sytuacji, w której jedni klienci przeinwestowują, chcąc zapewnić sobie zapasowe zasoby, inni zaś szybko orientują się, że kupili zbyt małe urządzenie i pół biedy, jeśli w miarę bezboleśnie uda się rozszerzyć jego moc obliczeniową lub przestrzeń dyskową. Nierzadko dochodzi wówczas do konieczności przeprowadzenia rozbudowy środowiska w modelu określanym jako forklift upgrade, czyli „wywiezienie wózkiem widłowym” dotychczas stosowanego rozwiązania i zastąpienie go nowym.

Drugi rodzaj wyzwań związany jest z aspektami finansowymi. Rozwiązania IT wciąż uważane są za kosztowne aktywa, zwłaszcza jeśli wymagane jest dokonanie całości płatności za zrealizowane wdrożenie. Rosną też koszty związane z wykupieniem kontraktów serwisowych od producenta oraz zatrudnieniem ekspertów, którzy po stronie klienta będą dbali o utrzymanie sprzętu i zagwarantowanie ciągłości jego pracy (popyt na nich na całym świecie nadal jest znacznie większy niż podaż). Utrudnieniem bywa również konieczność nieustannej edukacji wewnętrznego personelu, ponieważ rozwiązania IT stale ewoluują i trudniej jest nimi zarządzać, aby sprostać wymaganiom biznesowym.

W biurze jak w chmurze

W reakcji na wyzwania, których doświadczają klienci, producenci rozwiązań IT wpadli na prosty i – mogłoby się wydawać – genialny pomysł. Jeżeli jest to konieczne z powodów operacyjnych, niech będą one wdrażane nadal w siedzibie klienta i połączone z jego infrastrukturą, ale rozliczenie będzie następowało nie w modelu projektowym, a subskrypcyjnym. Zadaniem klienta jest zdefiniowanie wymogów technicznych i biznesowych (kryteria dotyczące wysokiej dostępności, ciągłości pracy, czasu przywrócenia środowiska do pracy po awarii itd.), zaś dostawcy usługi – zdefiniowanie parametrów umowy SLA i dotrzymanie ich poprzez wybór odpowiedniego rozwiązania (sprzęt i oprogramowanie), wdrożenie w siedzibie klienta i utrzymywanie w trakcie trwania umowy. Wysokość miesięcznego abonamentu uzależniona będzie od wypożyczonych przez klienta zasobów (pay-per-use).

W tym czasie producent pozostaje właścicielem rozwiązania, ale klient zachowuje kontrolę operacyjną nad zainstalowanymi aplikacjami i danymi. Jeżeli wymagania klienta dotyczące mocy zainstalowanego sprzętu wzrosną, rolą usługodawcy jest jak najszybsza jego rozbudowa – automatycznie też rośnie wysokość miesięcznego rachunku. Natomiast jeśli wymagania klienta zmaleją, możliwe jest działanie odwrotne, czyli przeskalowanie usługi „w dół”, ale… nie za darmo. Żeby klient w ogóle mógł skorzystać z takiej opcji, zazwyczaj musi ją wcześniej wykupić. Dostawcy usługi rekompensują sobie w ten właśnie sposób ryzyko biznesowe związane z potencjalnym zmniejszeniem wysokości abonamentu. Jednocześnie przyznają, że sytuacja, w której wymagania klientów maleją, jest praktycznie niespotykana.

Podstawową korzyścią modelu pay-per-use jest wyeliminowanie ryzyka, że posiadane przez klienta rozwiązania staną się przestarzałe po kilku latach – to rolą dostawcy usługi jest dopasowywanie wdrożonych systemów tak, aby spełniały one zdefiniowane oczekiwania techniczne i biznesowe. To ten aspekt sprawia, że wysokość miesięcznego abonamentu jest znacznie większa, niż miałoby to miejsce w przypadku klasycznego leasingu sprzętu.

Jak podkreślają usługodawcy, jest to najczęstszą przyczyną nieporozumień pomiędzy nimi i klientami, przynajmniej na pierwszym etapie negocjacji. Szybkie przemnożenie wartości abonamentu i liczby miesięcy określonych w kontrakcie (najczęściej 60) daje kwotę o kilkadziesiąt procent wyższą. Pomaga dopiero unaocznienie klientowi ukrytych i nieoczywistych kosztów występujących zazwyczaj po jego stronie, które dzięki subskrypcyjnemu modelowi zakupu i wdrażania są eliminowane. Chodzi między innymi o brak konieczności angażowania własnego personelu do obsługi serwisowej sprzętu oraz jego szkoleń. Praktycznie wyeliminowane jest też ryzyko popełnienia błędu przy rozbudowie rozwiązania czy zakłócenia niedostępności danych podczas niepoprawnie przeprowadzonej aktualizacji oprogramowania. Z klienta zdjęta jest również odpowiedzialność za utylizację sprzętu po zakończeniu okresu jego eksploatacji.

Polska specyficznym rynkiem

Swoje produkty w modelu pay-per-use oferuje znakomita większość producentów zaawansowanych rozwiązań IT. Dominują dostawcy macierzy dyskowych, bowiem pamięci masowe to ta grupa produktów, które relatywnie najłatwiej jest rozbudować pod kątem przestrzeni dyskowej, ale jednocześnie wyzwaniem jest zapewnienie wydajności odpowiadającej zapotrzebowaniu aplikacji. Ich użytkownicy zazwyczaj mają z tym problem, bowiem do stworzenia skalowalnego w odpowiednim stopniu środowiska potrzeba jest doświadczenia, a tym mogą pochwalić się głównie producenci rozwiązań i ich partnerzy.

Kolejną grupą produktów, która w ramach usług pay-per-use reprezentowana jest najczęściej, są serwery. Oferta tych bywa jednak ograniczona do modeli wykorzystywanych w środowiskach wirtualizacji oraz przetwarzania wysokiej wydajności (high performance computing), bowiem to najczęściej w nich dochodzi do potrzeby zapewnienia skalowalności na trudną do oszacowania skalę. W ograniczonym jak na razie zakresie w modelu usługowym oferowana jest infrastruktura sieciowa oraz stacje robocze.

Systemy oferowane w modelu pay-per-use przeznaczone są do wdrażania w siedzibie firmy klienta, ale zazwyczaj ich producenci deklarują, że mogą być zainstalowane także w obiekcie świadczącym usługi kolokacyjne. Aby proces udostępniania dodatkowej mocy obliczeniowej, pamięci czy przestrzeni dyskowej został uruchomiony jak najszybciej, dostawcy usług pay-per-use zazwyczaj wdrażają o 20–30 proc. więcej zasobów niż zadeklarowane w zamówieniu. Klienci zaczynają za nie płacić w modelu abonamentowym dopiero wtedy, gdy zaczynają z nich korzystać.

Oferta usług pay-per-use dostępnych w portfolio poszczególnych dostawców jest jednak ograniczona geograficznie. W Polsce można nabyć rozwiązania trzech, będących liderami, jeśli chodzi o zakres oferty: Dell, Fujitsu i HPE. Wszystkie te firmy współpracują z partnerami kanałowymi, chociaż prowadzą też bezpośrednią sprzedaż tych usług. Przykładowo, partnerzy oferujący usługi pay-per-use pod marką APEX mogą współpracować z ich dostawcą – Dell Technologies – na kilka sposobów.

Są wynagradzani nawet jeśli ich rola przy odsprzedaży usługi ograniczała się do wygenerowania leada poprzez zarejestrowanie go w systemie partnerskim Dell lub dystrybutora. Jeśli partner ma odpowiednie kompetencje i status, może dostarczyć usługi wdrożenia sprzętu albo być dodatkowo hostem usługi, w ramach której udostępni przestrzeń serwerowni do kolokacji sprzętu. W zależności od wybranej przez klienta opcji partnerzy dodatkowo mogą zarządzać sprzętem, a także zaoferować usługi APEX pod własną marką, rozdzielając wdrożoną we własnej siedzibie infrastrukturę między swoich klientów – podkreśla Michał Gazda, Senior Account Executive w polskim oddziale Della.

Co zaś z producentami, którzy nie wprowadzili do Polski oferty usługowej, mimo posiadania lokalnego przedstawicielstwa? Oficjalnie nie wypowiadają się na ten temat, ale w nieoficjalnych rozmowach przyznają, że polski klient jest dość specyficzny, a przy podejmowaniu decyzji kluczowym kryterium pozostaje wrażliwość na cenę. Porównanie uiszczanej jednorazowo ceny za zrealizowane wdrożenie z łączną wartością wniesionych w modelu usługowym opłat abonamentowych wychodzi mocno na niekorzyść tych drugich. W tej sytuacji w sprzedaży usług nie pomaga tłumacze-nie o ich dodatkowych zaletach, tym bardziej, że często dotyczą one aspektów związanych z personelem IT (ten w Polsce nadal jest tańszy „w obsłudze” niż na Zachodzie) albo gwarancji zapewnienia ciągłości biznesowej, do której wciąż często podchodzimy w nonszalancki sposób. W efekcie jako modelowego klienta na rozwiązania IT dostępne w modelu usługowym można w tej części Europy wskazać jedynie duże firmy, dla których dwie wymienione kwestie mają duże znaczenie.