Hiperkonwergencja w nowej odsłonie

Klasyczne rozwiązania HCI nie są cudownym lekiem na wszelkie bolączki centrów danych, a do niektórych zastosowań po prostu się nie nadają. Niefortunnym pomysłem byłoby użycie systemu hiperkonwergentnego do przechowywania wielkich zbiorów danych. W takich przypadkach pojemność magazynu danych nie może rosnąć liniowo wraz z innymi zasobami, bo generowałoby to absurdalne koszty. Systemu HCI nie opłaca się też stosować do obsługi obciążeń intensywnie korzystających z procesora.

Z biegiem czasu twórcy infrastruktury hiperkonwergentnej zaczęli dostrzegać jej wady i ją udoskonalać. W ten sposób narodził się pomysł opracowania zdezagregowanej infrastruktury hiperkonwergentnej (dHCI), czasami określanej jako HCI 2.0. W tym przypadku zamiast monolitycznych węzłów typu „wszystko w jednym”, dostarcza się osobno serwer i macierz SAN. Plusem tej konfiguracji jest dowolność skalowania: użytkownik może osobno dodawać moc obliczeniową lub przestrzeń dyskową, co jest niemożliwe w tradycyjnych systemach HCI.

– dHCI jest wynikiem naturalnego rozwoju technologii HCI, pozbawiającego ją niedomagań „wieku niemowlęcego”, wynosząc ją na wyższy i bardziej dojrzały poziom. Klienci, którym spodobała się koncepcja HCI, ale rezygnowali z jej wdrożenia ze względu na ograniczoną skalowalność i trudności związane z utrzymaniem stabilnej wydajności, będą mocno zainteresowani dHCI – tłumaczy Piotr Drąg, HPE Storage Category & Data Services Business Development Manager.

Trudno ocenić, na ile dHCI przełamie opór wśród krytyków architektury hiperkonwergentnej. O ile dostawcy tych systemów patrzą na ich przyszłość z dużym optymizmem, o tyle część integratorów patrzy na „HCI 2.0” dość sceptycznie.

– Niektórzy producenci mocno promują rozwiązania dHCI, ale na polskim rynku są one przyjmowane bardzo ostrożnie. Największą barierą jest cena – mówi Tomasz Spyra.

Sukces na brzegu sieci

Promotorzy HCI duże nadzieje wiążą z przetwarzaniem na brzegu sieci. Ostatnimi czasy coraz więcej firmowych danych jest wytwarzanych i przechowywanych na urządzeniach końcowych. W związku z tym wysyłanie ich do chmury publicznej lub firmowego centrum danych mija się z celem. Znacznie wygodniejszym rozwiązaniem jest umieszczanie infrastruktury i aplikacji blisko miejsca, gdzie wytwarza i konsumuje się dane. Według Gartnera do 2025 r. aż 40 proc. korporacyjnych pamięci masowych będzie wdrażanych na brzegu sieci. Dla porównania w 2022 r. odsetek ten wynosił 15 proc. W związku z tym wiele firm stanie przed wyzwaniem, jakim będzie wdrożenie infrastruktury do obsługi danych w oddziałach. Tradycyjny model, polegający na tworzeniu wysp z serwerem, pamięcią masową, osprzętem sieciowym i hiperwizorem, które są dostarczane przez różnych dostawców, generuje wysokie koszty i prowadzi do chaosu. Nie każdy oddział korzysta z tych samych aplikacji, dlatego też trudno byłoby spełnić ich wymagania przy użyciu identycznej infrastruktury.

Kolejny problem stanowi zdalne zarządzanie lokalną infrastrukturą za pomocą różnych platform, co niejednokrotnie przyczynia się do popełniania błędów, a także utrudnia szybkie reagowanie na pojawiające się przeszkody. Natomiast zastosowanie systemów HCI pozwala na centralne zarządzanie infrastrukturą oraz aplikacjami.

– Zamiast konsolidacji wszystkich danych w centrali lub chmurze publicznej, organizacja może wdrożyć w rozproszonych lokalizacjach infrastrukturę, która zapewnia wysoką dostępność, prostą obsługę i niskie koszty użytkowania. HCI jest idealnym rozwiązaniem dla klientów poszukujących rozwiązań do przetwarzania na brzegu sieci – zapewnia Bartek Banasiak.

Podobne zdanie mają na ten temat przedsiębiorcy, którzy już rozpoczęli swoją przygodę z HCI. Jak wynika z badania przeprowadzonego przez agencję 451 Research ponad 80 proc. użytkowników architektury hiperkonwergentnej na urządzeniach brzegowych planuje zwiększyć liczbę wdrożeń tych rozwiązań w ciągu najbliższych dwóch lat. Respondenci przyznają, iż wykorzystują HCI na brzegu sieci do obsługi wielu przypadków, chwaląc sobie niższe koszty i mniejszą powierzchnię w porównaniu z tą, którą zajmują produkty alternatywne. Innym atutem jest możliwość wdrożenia systemu składającego się jedynie z dwóch węzłów.

Jednak nie wszyscy podzielają optymizm dostawców HCI. Zdaniem Jerzego Skiby, DCC Technical Department Team Leadera w Exclusive Networks, edge computing nie jest trendem, który w znaczący sposób sprzyja systemom hiperkonwergentnym. Najbliższy czas pokaże, kto ma rację, czy orędownicy postrzegający HCI jako panaceum na bolączki związane z przetwarzaniem na brzegu sieci, czy sceptycy chłodnym okiem patrzący na „pudełka” z infrastrukturą.