Wielkie porządki w świecie aplikacji
Dostępność wielu metod dostarczania aplikacji użytkownikom powoduje, że administratorzy stają przed niełatwym wyborem – szczególnie jeśli chodzi o kwestie związane z bezpieczeństwem.
Najwięcej emocji wzbudzają modele licencjonowania.
Przed nadejściem wirtualizacji, firmy ręcznie instalowały aplikacje na każdym urządzeniu użytkownika. Jednak w ostatnich latach nastąpiła eksplozja różnego rodzaju programów, a ich utrzymanie oraz zarządzanie bez wirtualizacji lub usług bazujących na chmurze graniczyłoby z cudem. Zdaniem wielu ekspertów optymalnym rozwiązaniem na opanowanie tego chaosu jest właśnie wirtualizacja aplikacji.
Proces ten polega na udostępnieniu aplikacji zdalnym użytkownikom za pomocą zwirtualizowanej warstwy oddzielającej oprogramowanie od systemu operacyjnego i sprzętu użytkownika końcowego. Aplikacja instalowana jest na serwerze hosta (w centrum danych użytkownika lub zewnętrznej firmy hostingowej) i to na nim przetwarzane są wszystkie działania podejmowane przez użytkowników. W ten sposób mogą oni też korzystać z aplikacji w innych systemach operacyjnych niż te, dla których zostały one opracowane.
Wirtualizacja aplikacji ułatwia firmowym administratorom zapewnienie dodatkowych warstw bezpieczeństwa dzięki rozbudowanej kontroli uprawnień. Jeśli użytkownikowi mają być odebrane prawa dostępu do programu, administrator po prostu dokonuje zmian w konsoli, bez konieczności odinstalowywania go z komputera. Z kolei nowy użytkownik nie musi czekać na instalację. Natomiast jeśli komputer zostanie zgubiony lub skradziony, wrażliwe dane aplikacji pozostają na serwerze i nie trafią w ręce niepożądanego właściciela. Możliwe jest także wymuszenie szyfrowania wrażliwych plików oraz przyznawanie dostępu do nich wyłącznie uprawnionym użytkownikom. Mechanizm wirtualizacji pomaga również w tworzeniu i testowaniu aplikacji.
Większość współczesnych aplikacji można zwirtualizować, aczkolwiek zdarzają się wyjątki od reguły. Kłopotliwe może to być w przypadku starszych programów, zwłaszcza z funkcjami wysokiej dostępności. Inny przykład stanowią antywirusy lub inne narzędzia chroniące przed złośliwym kodem. To samo dotyczy aplikacji ze sterownikami, które muszą uzyskiwać dostęp do systemu operacyjnego, a także będących częścią systemu operacyjnego. Niewskazana jest również wirtualizacja oprogramowania o rozmiarze ponad 4 GB.
Aplikacje w środowisku lokalnym
Wprawdzie ostatnie lata przyniosły duży wzrost popularności usług SaaS, jednak analitycy szacują, że około połowę globalnych przychodów generuje sprzedaż oprogramowania hostowanego i zarządzanego w ramach firmowej infrastruktury. Niepośledni wpływ na taki stan rzeczy ma przetwarzanie na brzegu sieci, co wymusza umieszczanie danych oraz aplikacji jak najbliżej użytkownika. Dodatkowo, instalowane lokalnie oprogramowane zapewnia firmom większe możliwości dostosowania się do unikalnych wymagań oraz stosunkowo łatwe integrowanie z istniejącymi systemami.
Jednym z największych atutów tradycyjnego modelu są duże możliwości w zakresie kontroli. Administratorzy mają bezpośredni nadzór nad aplikacjami, co pozwala im wdrażać rygorystyczne środki bezpieczeństwa dostosowane do specyficznych wymagań. Ma to kluczowe znaczenie w branżach, w których powinny być przestrzegane ścisłe standardy zgodności ze przepisami. W sieciach korporacyjnych wirtualizacja aplikacji służy do budowy infrastruktury wewnętrznej chmury prywatnej, z której świadczone są usługi. W ten sposób firmy z branż obwarowanych szeregiem przepisów uzyskują zgodność z regulacjami, przy jednoczesnym wykorzystaniu możliwości chmury publicznej.
Jednak ten kij ma dwa końce. Systemy pracujące w lokalnej serwerowni wymagają wyspecjalizowanego personelu IT zajmującego się konserwacją, aktualizacją produktów, a także rozwiązywaniem problemów, w tym również tych będących następstwem cyberataków. Czasami zbyt wielka wiara we własne siły może w najlepszym wypadku obniżyć wydajność i spowolnić reakcję, a w czarnym scenariuszu doprowadzić do poważnej awarii.
Największą bolączką związaną z wirtualizacją aplikacji, zwłaszcza dla firm z ograniczonymi budżetami IT, jest konieczność znacznych początkowych inwestycji w zakup sprzętu i infrastruktury, a także bieżących kosztów konserwacji i eksploatacji. Drugim poważnym wyzwaniem jest planowanie przyszłego wzrostu. Firmy popełniają w tym przypadku błąd polegający na zakupie nadmiarowych licencji, a tym samym generują wzrost kosztów.
Podobne artykuły
Zgodność z dyrektywą NIS2 i budowanie odporności cybernetycznej
17 października 2024 r. minął czas na uchwalenie krajowych przepisów wdrażających dyrektywę NIS2 przez państwa członkowskie UE.
DAGMA MSP Day
Frekwencja i zaangażowanie uczestników pierwszej w historii katowickiej spółki konferencji poświęconej usługom zarządzanym pokazały, że MSP to dziś bardzo gorący temat.
Systemy przemysłowe pod ostrzałem
Wśród wielu przedsiębiorców pokutuje przekonanie, że systemy przemysłowe OT nie wymagają ochrony, ponieważ nie przyciągają uwagi hakerów. Tymczasem prawda wygląda zgoła inaczej.