Gdy tylko pojawiła się publicznie dostępna wersja ChatGPT, rozgorzała dyskusja o szerokim spektrum wyzwań i możliwości związanych z cyberbezpieczeństwem, jakie daje generatywna sztuczna inteligencja. Obecnie eksperci ds. bezpieczeństwa nie mają wątpliwości, że większość z nich jest dopiero przed nami. Przy czym dla integratorów pojawienie się GenAI oznacza przede wszystkim nowe doświadczenia. Z jednej strony do wyjątkowo pilnych zadań doszło niesienie pomocy klientom w bezpiecznym korzystaniu z nowych aplikacji AI. Z drugiej zaś wykorzystanie tego rodzaju technologii przez hakerów zwiększa zagrożenie, wobec którego integratorzy powinni działać proaktywnie.

Zwłaszcza że GenAI jest powszechnie wykorzystywana przez producentów w celu ulepszania sposobu wykorzystywania narzędzi ochrony przez zespoły ds. bezpieczeństwa. Ma to skutkować zwiększaniem produktywności i szybszym reagowaniem na zagrożenia.

– Ostatecznie w obszarze cybersecurity liczy się przede wszystkim szybkość, z jaką ludzie mogą podejmować decyzje. GenAI może przyspieszyć podejmowanie decyzji, zapewniając większy kontekst dotyczący potencjalnego zagrożenia. Daje to zespołom ds. bezpieczeństwa pewność, co może być zignorowane, a co wymaga dalszego badania. Przy czym z uzyskanym dzięki GenAI właściwym kontekstem dotarcie do etapu decyzji będzie prostsze – mówi Ian McShane, wiceprezes ds. strategii w Arctic Wolf.

Jednak wszystko, co obserwujemy, to dopiero preludium: integratorzy mogą zakładać, że przez najbliższe lata technologie GenAI staną się źródłem zarówno innowacji, jak i zaburzeń na rynku.

– Wiele w tym wszystkim medialnego szumu, który robi się coraz głośniejszy. Myślę jednak, że sprawy posuwają się do przodu i jasne jest, że AI będzie miało wpływ na nasz rynek – mówi Mike Heller, dyrektor ds. zarządzanych usług bezpieczeństwa w Kudelski Security. Oczywiście, jaką ostatecznie ten wpływ przybierze formę, dopiero się okaże.

Część ekspertów szczególnie dobitnie podkreśla, że GenAI może stanowić ryzyko dla bezpieczeństwa, jeśli nie jest odpowiednio zarządzane.

– Uważam, że jednym z naszych obecnych zadań jako dostawców usług zarządzania infrastrukturą IT jest wyprzedzenie zdarzeń i wczesne przeprowadzanie z klientami rozmów na temat bezpiecznego oraz poprawnego wykorzystania sztucznej inteligencji. Słyszeliśmy już przecież o błędach i groźnych zdarzeniach. Generalnie uważam, że generatywna sztuczna inteligencja to przyszłość i wiele organizacji próbuje znaleźć sposób na znalezienie w niej korzyści – mówi Atul Bhagat, prezes BASE Solutions.

Ochrona własności intelektualnej

Jednym z potencjalnych sposobów jest ochrona informacji poprzez zapobieganie wyciekowi własności intelektualnej i danych wrażliwych do aplikacji GenAI. W ostatnich miesiącach kilku producentów udostępniło narzędzia, które mają pomóc w bezpiecznym wykorzystaniu platform w rodzaju ChatGPT. Przykładowo, Zscaler zaktualizował swój produkt zapobiegający utracie danych (DLP) o funkcję przeciwdziałania potencjalnemu wyciekowi danych do aplikacji GenAI. W tym celu wdrożono nowe polityki ochrony przed utratą danych i filtrowania informacji. Jednocześnie producent poinformował, że niedawno wprowadzona funkcjonalność Multi-Modal DLP może zapobiegać wyciekom danych nie tylko w tekście i obrazach, ale także w dźwięku i wideo.

– Ogólnie rzecz biorąc, celem jest umożliwienie naszym klientom bezpiecznego korzystania z generatywnej sztucznej inteligencji, bez wycieku danych i ryzyka wykorzystania przez złośliwe wersje czatbotów – tłumaczy Deepen Desai, CISO kalifornijskiego producenta.

Innym dobrze znanym zagrożeniem bezpieczeństwa, jakie przynosi GenAI, jest wykorzystywanie ChatGPT przez cyberprzestępców do tworzenia doskonalszych kampanii phishingowych.

Nie tak dawno specjalistom ds. bezpieczeństwa udało się zidentyfikować zasilane przez GenAI czatboty, które stworzono specjalnie do użytku przez hakerów. Chodzi o WormGPT, który został ujawniony przez ekspertów ze SlashNext, a także FraudGPT – odkryty przez badaczy z Netenrich.

Jednak już sam ChatGPT może stanowić znaczące wsparcie dla przestępców, gdy użyją go chociażby do poprawiania gramatyki w wykorzystywanych w phishingu tekstach tworzonych przez napastników, którzy nie mówią w języku potencjalnej ofiary.

– Istniejące zabezpieczenia nie pozwalają na dostarczanie mejli przez ChatGPT, co mogłoby być wykorzystane w socjotechnice. Na przykład przy wysyłaniu mejla do „Twojego wujka, z którym nie rozmawiałeś od lat”. Nawet, jeśli istnieją jakieś zabezpieczenia, to jeśli napastnik jest sprytny, może je ominąć – mówi Mike Parkin, inżynier z Vulcan Cyber, izraelskiego dostawcy usług zarządzania podatnościami.

W odpowiedzi na to zagrożenie, wiele firm z branży bezpieczeństwa udostępniło narzędzia, które mogą pomóc w zwalczaniu wspieranego przez GenAI phishingu. Narzędzie CheckGPT, opracowane przez specjalistów z Abnormal Security, służy właśnie do wykrywaniu ataków, które zostały stworzone przy użyciu dużych modeli językowych. Wykorzystuje ono wiele open-source’owych LLM-ów, aby określić prawdopodobieństwo, że wiadomość mejlowa została stworzona przy użyciu GenAI.