Pomimo tego, że że firmy inwestują w rozwój sztucznej inteligencji i integrację AI z procesami biznesowymi, wielu pracowników idzie na skróty i to bez zgody działu IT. Jak pokazuje najnowsze badanie ManageEngine, coraz więcej pracowników korzysta z narzędzi AI „na własną rękę”, często wprowadzając do nich wrażliwe dane klientów czy firmowe informacje.

Eksperci mówią wprost: mamy do czynienia z nową odmianą znanego problemu shadow IT – zjawiskiem shadow AI. Co gorsza, proces ten się nasila W porównaniu z ubiegłym rokiem 60% pracowników częściej korzysta z niezatwierdzonych narzędzi AI, a aż 93% przyznaje, że wprowadza do nich dane bez uprzedniej zgody przełożonych lub działu IT.

Najczęściej AI używane są do działań pozornie niewinnych: generowania notatek po spotkaniach (55%), burzy mózgów (55%) czy analizy danych i raportów (47%). Ale gdy odbywa się to poza oficjalnymi, zabezpieczonymi narzędziami – może prowadzić do bardzo poważnych konsekwencji.

Dla działów IT sprawa jest jasna: 63% menedżerów IT uważa wyciek lub ekspozycję danych za największe ryzyko związane z shadow AI. Tymczasem aż 91% pracowników nie widzi w tym większego zagrożenia – albo nie dostrzega ryzyka w ogóle, albo uważa, że potencjalne korzyści są warte ewentualnego ryzyka.

Według badania 1 na 3 pracowników przyznał się do wprowadzenia poufnych danych klientów do narzędzi AI spoza firmowego ekosystemu, a 37% użyło narzędzi AI do przetwarzania prywatnych danych firmowych – bez żadnej kontroli.

Eksperci wskazują drogę

Firmy nie powinny blokować dostępu do narzędzi AI, lecz nimi odpowiednio zarządzać. Shadow AI może przynieść wartość biznesową, ale pod warunkiem że będzie kontrolowane i wykorzystywane w ramach zatwierdzonych rozwiązań. Jak wskazują autorzy raportu, kluczowe są trzy obszary: integracja, polityka zarządzania i edukacja.

Zalecenia od liderów IT:

63%: integracja zatwierdzonych narzędzi AI z codziennymi aplikacjami i procesami,

60%: jasne zasady i polityki korzystania ze sztucznej inteligencji,

55%: lista sprawdzonych, bezpiecznych narzędzi dopuszczonych do użytku.

Głos pracowników:

66%: zasady muszą być uczciwe i praktyczne,

63%: firmy powinny udostępniać narzędzia dopasowane do realnych potrzeb,

60%: potrzebna jest lepsza edukacja w zakresie ryzyka i odpowiedzialności.

Shadow AI to nie chwilowy trend, ale trwała zmiana sposobu pracy. Pracownicy chcą wykorzystywać AI, by być szybsi, skuteczniejsi i bardziej innowacyjni, ale bez wyraźnych ram, odpowiednich narzędzi i świadomości ryzyk, mogą wyrządzić więcej szkód niż pożytku.

Organizacje muszą przestać udawać, że nie ma problemu i zacząć traktować go jako szansę na zbudowanie nowoczesnego, bezpiecznego środowiska pracy wspieranego przez AI.

– Shadow AI to cichy sabotaż dla większości firm. Działy IT nie mogą chronić czegoś, o czym nie wiedzą, i nie są w stanie wykorzystać potencjału AI, jeśli pracownicy działają poza systemem. Potrzebujemy nowego podejścia, łączącego IT i biznes wokół wspólnych celów. Chodzi o to, by pracownicy rozumieli zagrożenia i wiedzieli, jak z nich wyjść obronną ręką, a zespoły IT miały realne wsparcie i narzędzia, by przekuć AI w bezpieczny zysk dla całej organizacji – podsumowuje Sathish Sagayaraj Joseph, regionalny szef techniczny w ManageEngine.

ManageEngine zlecił niezależnej agencji badań rynkowych Censuswide przeprowadzenie badania wśród 350 decydentów IT i 350 pracujących profesjonalistów w USA i Kanadzie, zatrudniających co najmniej 500 pracowników i osiągających przychód co najmniej 10 milionów dolarów rocznie.