Specjaliści Snowflake opracowali dokument „Data + AI Predictions 2024”, w którym opisują możliwe kierunki rozwoju cyberprzestępczości w nadchodzących latach, jak też sugerują strategie reagowania na incydenty bezpieczeństwa. Jego treść skupia się na generatywnej sztucznej inteligencji, gdyż po sukcesie serwisu ChatGPT w przedsiębiorstwach zapanował boom na tę właśnie formę AI.

Sztuczna inteligencja w rozwiązaniach ochronnych pozwoli uszczelniać cyfrowe mury, automatyzować procesy wykrywania incydentów i reagowania na nie, będzie też niezastąpiona w zadaniach analizy oraz predykcji zagrożeń. Jednym z największych problemów związanych z bezpieczeństwem IT jest bowiem czas, jaki upływa pomiędzy uzyskaniem przez cyberprzestępców dostępu do firmowych systemów a wykryciem incydentu. W różnych raportach branżowych mediana tego okresu wynosi około dwóch tygodni.

Eksperci Snowflake podkreślają jednak, że wraz z rozpowszechnianiem się otwartych narzędzi AI, cyberprzestępcy nabyli zdolność generowania zupełnie nowych typów ataków, na które działy bezpieczeństwa nie są jeszcze gotowe. Co gorsza, mogą zupełnie dowolnie eksperymentować z AI, bez oglądania się na jakiekolwiek regulacje.

Pomoc w zrozumieniu potencjalnie niebezpiecznego zachowania może stanowić analiza danych behawioralnych. Odchylenia od wzorców dotyczących tego gdzie, kiedy i do jakich systemów określony pracownik uzyskuje dostęp, mogą zostać przypisane osobie posługującej się skradzionymi danymi uwierzytelniającymi lub jakiejkolwiek innej złośliwej działalności. Można spodziewać się, że właśnie GenAI będzie bardzo wydajna w ocenie i wychwytywaniu takiej aktywności.

Grzegorz Kapusta, dyrektor ds. inżynierii i szef warszawskiego biura Snowflake Grzegorz Kapusta, dyrektor ds. inżynierii i szef warszawskiego biura Snowflake  

Firmy podejmują mniej lub bardziej zaawansowane próby wprzęgnięcia GenAI w swoje procesy i działania z dwóch głównych przyczyn: nie chcą pozostać w tyle za konkurencją, a jednocześnie próbują przygotować się na moment, gdy mechanizmy AI osiągną większą dojrzałość. W warunkach dopiero tworzących się wewnętrznych procedur, reguł polityki bezpieczeństwa oraz zewnętrznych, branżowych i prawnych regulacji dotyczących wykorzystania sztucznej inteligencji, inicjatywy te mają często charakter doświadczalny. Tymczasem cyberprzestępcy, którzy też eksperymentują z AI, nie mają takich ograniczeń.

  

Programiści na celowniku cyberprzestępców

Z uwagi na rosnącą rolę uczenia maszynowego i automatyzacji w procesach wytwarzania oprogramowania DevOps (a zwłaszcza DevSecOps) zmniejsza się liczba błędów, które może popełnić człowiek, a które – niezauważone – mogą trafić do wersji produkcyjnej aplikacji. Dlatego autorzy dokumentu „Data + AI Predictions 2024” twierdzą, że konsekwencją stosowania mechanizmów sztucznej inteligencji w rozwiązaniach ochronnych będzie zmiana priorytetów atakujących – cyberprzestępcy będą szukać sposobów na przedostanie się do środowisk programistycznych, ponieważ tam szansa na znalezienie i wykorzystanie podatności będzie wyjątkowo duża.

– Rozwój jest z natury chaotyczny i eksperymentalny, więc zrozumienie tego, co w środowisku programistycznym jest normalne, a co nienormalne, jest bardzo trudne. Dlatego zespołom odpowiedzialnym za bezpieczeństwo trudniej jest bronić się przed atakami, a dla ich dyrektorów ważnym zadaniem staje się tworzenie reguł dla akceptowalnych działań programistycznych – mówi Grzegorz Kapusta, dyrektor ds. inżynierii i szef warszawskiego biura Snowflake.

Jedną z najskuteczniejszych form cyberataku pozostaje dziś phishing. Według CERT Polska, w 2022 r. stanowił on 2/3 wszystkich obsłużonych przez ten zespół incydentów. Jak wskazują eksperci Snowflake, ataki te, chociaż w swojej istocie nieskomplikowane, mogą za sprawą wykorzystania generatywnej sztucznej inteligencji stać się znacząco trudniejsze do rozpoznania. Łatwo wyobrazić sobie sytuację, gdy atakujący będą za pośrednictwem narzędzi GenAI preparować komunikację firmową, szkoląc modele na przechwyconych wiadomościach wymienianych przez pracowników lub na bazie dostępnej powszechnie wiedzy o profilu i ofercie danej firmy.

Dodatkowe informacje: Grzegorz Kapusta, dyrektor ds. inżynierii i szef warszawskiego biura, Snowflake, grzegorz.kapusta@snowflake.com