Skuteczne zarządzanie zasobami IT powinno zawierać trzy elementy świadomej kontroli środowiska: procesy, odpowiednie narzędzie i zasoby. W praktyce takie zarządzanie oznacza optymalizację kosztów istniejącej infrastruktury, wyeliminowanie ze środowiska ryzyka, w tym negatywnych konsekwencji braku zgodności licencyjnych i podatności, efektywne wykorzystanie zasobów, bank wiedzy i argumentów do negocjacji z producentami, budowanie długoterminowej strategii i planowanie inwestycji w oparciu o fakty.

Warunkiem koniecznym i kluczem do takiego działania są starannie gromadzone, wiarygodne dane, bez których podejmowanie decyzji w zakresie optymalizacji operacji biznesowych, kosztów technologii, jej wykorzystania i bezpieczeństwa, jest w praktyce niewykonalne. Sztuką nie jest opieranie się na fragmentarycznych danych dla poszczególnych części środowiska bez wspólnego mianownika i kolektywne łączenie ich w obszary, ale na pełnych danych o firmowym ekosystemie informatycznym z wszystkimi, licznymi metrykami, które go dotyczą. A przy tym bez względu na charakter środowiska, zarówno w kontekście sprzętu, jak i zainstalowanego tam oprogramowania. Kontrola to podstawa świadomego zarządzania, a trudno jest kontrolować coś co się wymyka.

O ile kilka lat temu w zakresie zarządzania zasobami rynek skupiał się  przede wszystkim na serwerach i jednostkach końcowych (desktopy, laptopy, stacje graficzne), o tyle w dobie dzisiejszego postępu technologicznego priorytetem stały się także SaaS, chmura i kontenery. Widać również zasadniczą zmianę w próbie świadomego adresowania shadow IT w przenikających się światach on-premises i chmury, czy barier pomiędzy ITAM-em a FinOpsem. Komplementarnym rozwiązaniem stały się platformy, które obejmują wszystkie te obszary, pozwalając na gromadzenie całości danych w jednym miejscu, bez względu na źródło ich pochodzenia. Krótko mówiąc: jeden punkt czerpania wiedzy, jeden obraz o całym środowisku dla wszystkich – silnik.

Rzecz jasna, silnik nie podejmie decyzji za człowieka, ale umożliwi kompetentną reakcję. Same dane także muszą być dostosowywane do zmieniających się realiów na rynku, chociażby metryk licencyjnych poszczególnych producentów. Inwestycja w rozwiązania zamknięte, które nie są aktualizowane w trybie stałym, mają ascetyczną bibliotekę albo kłopot z normalizacją jej zawartości, jest pomysłem krótkowzrocznym i zasadniczo niewiele wnoszącym do organizacji. To marnotrawstwo środków, czasu i zasobów.

Stale istotnym aspektem pozostaje także sposób prezentowania danych poszczególnym uczestnikom procesów, częstotliwość, przejrzystość i kompleksowość rekomendacji serwowanych przez rozwiązania ITAM i możliwości personalizacji raportów dostosowanych do potrzeb różnych grup odbiorców.

Warto podkreślić wpływ rosnącej liczby regulacji dotyczących zrównoważonego rozwoju i kompleksowego zarządzania ryzykiem, gdzie wśród wymaganych wskaźników pojawia się bezpieczeństwo systemów informatycznych, zapobieganie i wykrywanie incydentów, monitorowanie oraz zgłaszanie podatności.

Taka hybryda wieloskładnikowych procesów i zadań wymaga dzisiaj od organizacji nowego podejścia w myśleniu o zarządzaniu, w tym zaakceptowania konwergencji krytycznych zespołów i funkcji w firmie. Kluczowym stało się wspólne działanie z wykorzystaniem tych samych narzędzi, poszukiwanie sposobów komunikacji i najlepszych praktyk.

Dzisiaj efektywne zarządzanie zasobami wymaga współpracy umożliwiającej dostarczanie informacji na temat danych IT w całej organizacji.

Materiał przygotowany we współpracy z firmą Flexera.

Marta Greliak-Telesińska Marta Greliak-Telesińska  

Enterprise Sales Executive CEE, Flexera (poprzednio Snow Software)