O zastosowaniu mechanizmów sztucznej inteligencji w rozwiązaniach ochronnych mówi się od ponad 10 lat, zaś od kilku eksperci twierdzą, że wykorzystują ją także cyberprzestępcy. Czy rzeczywiście jest ona „game changerem” po obu stronach „mocy”?

Absolutnie tak. Prawie wszyscy dostawcy narzędzi zabezpieczających korzystają ze sztucznej inteligencji, bazując na mechanizmach uczenia maszynowego wyszkolonych do wykrywania złośliwego kodu. Wyzwaniem w tym obszarze jest to, że taki model AI musi być bardzo mały, aby być zaimplementowany w produkcie instalowanym na urządzeniu końcowym użytkownika, a tylko ewentualnie dodatkowo wspieranym jakąś usługą w chmurze, działającą w dodatkowej warstwie w celu potwierdzenia podejrzeń o obecność zagrożenia. Wykorzystanie takich małych modeli jest jeszcze ważniejsze w przypadku oprogramowania ochronnego instalowanego w smartfonach i tabletach – tam wdrożenie mechanizmu bazującego na sygnaturach nie ma sensu, bo jest on bardzo energochłonny i konsumuje mnóstwo pamięci, więc drastycznie skrócony zostałby czas pracy takiego sprzętu na baterii. Nie mówiąc już o jego przegrzewaniu się. Natomiast po stronie cyberprzestępców także widzimy wykorzystanie sztucznej inteligencji, ale głównie do automatyzacji ataków.

Czy przy pracy nad analizą przebiegu ataków może być pomocna również generatywna sztuczna inteligencja?

Tak, ale raczej w nietechnicznym zakresie. Pomaga ona przy opracowywaniu raportów dotyczących zagrożeń. Nasi analitycy są ekspertami od prowadzenia testów penetracyjnych, oceny skutków ataków, ale zazwyczaj nie są dobrymi pisarzami. Dlatego wsparcie językowe jest pomocne, lecz oczywiście przy założeniu, że rezultat tej pracy jest poddany późniejszemu audytowi. W ramach zabawy i analizy możliwości cyberprzestępców stworzyliśmy też na wewnętrzne potrzeby testowego chatbota, który udziela odpowiedzi na pytania naszego zespołu do spraw bezpieczeństwa, dotyczące chociażby dostępności wiedzy na dany temat w naszej przepastnej bazie.

Coraz częściej podnoszone jest, że cyberprzestępcy stosują duże modele językowe do generowania poprawnych językowo, wysokiej jakości treści, które wykorzystują w kampaniach phishingowych. Czy zaobserwowaliście już to zjawisko?

Tak, chociaż nadal bystry użytkownik raczej bez problemu zorientuje się, że coś jest nie w porządku. Zazwyczaj wystarczy zweryfikować rzeczywisty adres e-mail nadawcy. Wciąż pojawiają się niezgrabności językowe, może nie ma błędów ortograficznych i literówek, ale niektóre wyrazy bywają zastosowane w złym kontekście. Zauważyliśmy natomiast, że powstało wiele bazujących na ChatGPT chatbotów wykorzystywanych do oszukańczych kampanii na WhatsAppie. Kilka tygodni temu doszło do kuriozalnej sytuacji, gdy rosyjskim operatorom tych botów skończyły się kredyty. W ramach realizowanej przez nich kampanii wspierającej Donalda Trumpa w amerykańskich wyborach zaczęły być wysyłane informacje… o konieczności uzupełnienia konta ChatGPT. To oczywista kompromitacja i wpadka, ale na pewno zostały z niej wyciągnięte wnioski. Poza tym widzimy już wykorzystywanie deepfake’ów podczas tego typu kampanii i to obecnie jest najbardziej niepokojące zjawisko. Część osób zauważy, że widzi lub słyszy coś podejrzanego, ale większość nie.

Czy istnieje jakakolwiek współpraca pomiędzy dostawcami rozwiązań ochronnych a twórcami dużych modeli językowych, aby lepiej zabezpieczyć je przed tego rodzaju podstępnymi próbami?

Jeżeli istnieje, to raczej nieformalna. Z mechanizmów, które miałyby sens, widziałbym zaimplementowanie w rozwiązaniach ochronnych weryfikatora, czy dana treść została stworzona przez sztuczną inteligencję. Takie narzędzia już istnieją, ale ich skuteczność jest relatywnie niewielka i za pomocą kilku prostych sztuczek można sprawić, że materiał zostanie uznany za stworzony przez człowieka. Tymczasem, aby to odniosło poprawny skutek w kontekście bezpieczeństwa, ich skuteczność powinna sięgać 99 procent lub więcej.

Jedną z głównych porad dla użytkowników dotyczących cyberhigieny jest jak najszybsze aktualizowanie systemów operacyjnych i oprogramowania. Jako argument wskazywane jest, że cyberprzestępcy także pobierają te aktualizacje. Następnie za pomocą inżynierii wstecznej, a obecnie również sztucznej inteligencji, dokonują ich analizy, dzięki czemu dowiadują się jaka luka została załatana i próbują ją wykorzystać do ataku w niezaktualizowanych systemach. Czy rzeczywiście tak się dzieje?

Takie sytuacje są możliwe, ale moim zdaniem nie mają miejsca zbyt często. Jeżeli występują, to głównie wobec bardzo popularnych systemów. Raczej nikt nie będzie analizował poprawek do sterownika jakiejś drukarki przemysłowej, no chyba że mamy do czynienia z opłacanym przez struktury państwowe ukierunkowanym atakiem. Poza tym wystąpienie takiego scenariusza jest trudne do udowodnienia, ponieważ nie wiadomo czy cyberprzestępcy wcześniej nie byli już świadomi istnienia danej luki i jej nie wykorzystywali. Wątpię też, żeby – przynajmniej na tym etapie – w takiej działalności była pomocna sztuczna inteligencja. Nawet duże firmy, jak Google, deklarowały, że są w stanie za pomocą AI weryfikować bezpieczeństwo aplikacji w swoim sklepie, ale po pewnym czasie wycofały się z tych stwierdzeń. A dla cyberprzestępców uzyskanie takich umiejętności jest o kilka rzędów wielkości trudniejsze.