Otwierający konferencję przedstawiciele tajskiej administracji publicznej podkreślali, że w dobie powszechnej cyfryzacji – obejmującej finanse, ochronę zdrowia, administrację i infrastrukturę krytyczną – cyfrowe bezpieczeństwo przestało być zagadnieniem technicznym, a stało się elementem stabilności gospodarczej i zaufania publicznego. Istotnym podnoszonym wątkiem była zmiana paradygmatu: od podejścia bazującego na zgodności z regulacjami i okresowych audytach, do modelu ciągłego zarządzania ryzykiem oraz budowania odporności na współczesne zagrożenia. Wskazywano, że obecnie mają one charakter systemowy, transgraniczny i zautomatyzowany, a ich tempo rośnie wraz z wykorzystaniem AI przez atakujących. Jednocześnie sztuczna inteligencja może i powinna być wykorzystywana do wzmocnienia ochrony poprzez zabezpieczanie modeli, danych i łańcuchów dostaw.

Przedstawiciele organizacji branżowych i administracji mówili o konieczności wielostronnej współpracy, wykraczającej poza wymianę informacji o zagrożeniach, a obejmującej wspólne budowanie kompetencji, standardów oraz zdolności reagowania na incydenty. Wskazywano na potrzebę koordynacji na poziomie krajowym, regionalnym i międzynarodowym, co wpisuje się w globalną debatę o interoperacyjności regulacji, suwerenności cyfrowej i ochronie infrastruktury krytycznej. Podkreślano rozwój lokalnych ekosystemów produktowych – jako element wzmacniania niezależności technicznej.

AI jako nowy aktor operacyjny w cyberatakach

Jednym z najmocniejszych akcentów konferencji była teza, że wchodzimy w erę agentic AI – systemów zdolnych do samodzielnego planowania i realizowania złożonych operacji. Zaprezentowano model ataku, w którym człowiek wyznacza jedynie cel, natomiast kolejne fazy – rekonesans, skanowanie podatności, generowanie exploitów, tworzenie malware’u i eskalacja uprawnień – są realizowane przez agenty AI. Rola operatora ogranicza się do walidacji efektów.

Szczególnie niepokojące jest skrócenie czasu między wykryciem podatności, a jej uzbrojeniem. To, co wcześniej zajmowało tygodnie, obecnie może zostać zautomatyzowane i zrealizowane w ciągu minut. Oznacza to przejście do modelu „machine-speed attacks”, w którym infrastruktura podłączona do internetu jest nieustannie testowana przez autonomiczne systemy. W praktyce przestaje być to konfrontacja ludzi z ludźmi – coraz częściej jest to AI kontra AI.

Dla przedsiębiorstw oznacza to konieczność odejścia od reaktywnego modelu bezpieczeństwa. Narzędzia wspierane przez AI nie mogą pozostawać wyłącznie dodatkiem marketingowym; muszą realnie wzmacniać zdolności wykrywania podejrzanych zdarzeń, korelacji informacji oraz automatycznego reagowania. Jednocześnie konieczne staje się testowanie systemów pod kątem odporności na autonomiczne ataki, a nie realizowanie wyłącznie klasycznych scenariuszy penetracyjnych.

Kwantowe odliczanie trwa

Drugim kluczowym wątkiem była postępująca komercjalizacja obliczeń kwantowych. Prelegenci podkreślali, że chociaż horyzont pełnej dojrzałości tej technologii pozostaje niepewny, wyścig już trwa – zarówno w warstwie sprzętowej, jak i programistycznej.

W centrum dyskusji znalazło się zagrożenie dla obecnych standardów kryptograficznych, takich jak RSA czy ECC. Model „zbieraj teraz, odszyfruj później” (harvest now, decrypt later) przestaje być teoretycznym, gdy dostępność odpowiednio wydajnych komputerów kwantowych ułatwi nieuprawnione odszyfrowywanie zgromadzonych danych. Szczególnie narażone są tu archiwa danych o długim cyklu życia, takie jak dokumentacja medyczna, dane finansowe czy informacje rządowe.

W prezentacjach wielokrotnie odwoływano się do potrzeby natychmiastowego rozpoczęcia inwentaryzacji zasobów kryptograficznych i planowania migracji do standardów post-quantum cryptography (PQC). Z perspektywy Europy jest to wątek bezpośrednio powiązany z regulacjami NIS 2, DORA czy wymogami branżowymi – kryptograficzna „zwinność” (crypto agility) staje się elementem strategicznego zarządzania ryzykiem, a nie jedynie zagadnieniem technicznym.

Incident response jako proces, nie produkt

Wystąpienia praktyków – zwłaszcza specjalistów od reagowania na incydenty – koncentrowały się na krytyce podejścia „kupmy kolejne narzędzie”. Podkreślano, że bezpieczeństwo nie jest produktem, lecz cyklem obejmującym przygotowanie, identyfikowanie i eliminowanie zagrożeń, ograniczanie skutków ataków, odtwarzanie systemów oraz analizowanie wniosków.

Zwracano uwagę na elementarne braki w wielu organizacjach: nieaktualne inwentarze zasobów, brak szczegółowych diagramów sieci, niewystarczające logowanie zdarzeń czy brak scentralizowanego SIEM. W sytuacji ataku ransomware brak tych fundamentów znacząco wydłuża czas reagowania oraz zwiększa koszty incydentu. Równie istotne jest ćwiczenie scenariuszy kryzysowych – między innymi prowadzenie warsztatów typu tabletop, obejmujących nie tylko IT, ale również zarządy, działy prawne i inne, które są odpowiedzialne za komunikację wewnątrz i na zewnątrz przedsiębiorstw.

Wspólnym mianownikiem wszystkich prezentacji była odporność, rozumiana szerzej niż ochrona przed incydentem – taka, która obejmuje zdolność do szybkiego wykrycia zagrożenia, ograniczenia strat, utrzymania ciągłości działania i wyciągnięcia wniosków. W realiach, w których sztuczna inteligencja przyspiesza ofensywę, a obliczenia kwantowe podważają fundamenty kryptografii, odporność staje się kluczową kategorią strategiczną zarówno dla firm, jak i całych państw.