Najbardziej widocznym i namacalnym objawem trwającej i na szczęście bezkrwawej rywalizacji jest próba odcięcia Chin od możliwości kupowania i produkowania u siebie najbardziej zaawansowanych mikroprocesorów dedykowanych do obliczeń związanych z nauczaniem maszynowym SI. Oficjalnym powodem jest uniemożliwienie Chińskiej Armii Ludowo-Wyzwoleńczej wykorzystywanie SI (sprzętowo i programowo) w swoim uzbrojeniu, doktrynie i systemach świadomości sytuacyjnej na polu bitwy.

Nieoficjalnie chodzi o powstrzymanie lub co najmniej poważne opóźnienie rozwoju gospodarczego Chin, gdyż sztuczna inteligencja i zaawansowane mikroprocesory znajdują szerokie zastosowanie w cywilnych obszarach gospodarki, takich jak rozwój sieci 5G i 6G, pojazdy autonomiczne, modelowanie pogody, zjawiska zachodzące w reaktorach typu tokamak, zarządzanie przepływami energii w rozproszonych systemach energetycznych zasilanych OZE i wiele innych.

Przebieg tej wojny, jej skutki (krótko- i długofalowe) to temat na odrębny felieton. W niniejszym artykule chcę skoncentrować się na regulacjach prawnych, jakie wprowadza się w Chinach w związku z SI. A warto zacząć od tego, że coraz częściej pojawiają się w mediach nawoływania do uregulowania niezwykle dynamicznie rozwijającej się branży SI, z drugiej strony pojawiają się głosy (głównie firm tworzących te rozwiązania), aby wyłączyć SI z niektórych uregulowań prawnych. Najbardziej moim zdaniem bezczelne można podsumować sloganem – jak nam nie pozwolicie kraść, to nie będziemy mogli się rozwijać. Chodzi oczywiście o próby uzyskania czegoś w rodzaju listu żelaznego, który pozwalałby karmić kolejne generacje SI wszelkimi danymi, jakie tylko „wpadną w ręce”, bez oglądania się na prawa autorskie. Do tego dochodzą też nieprawdziwe – choć zapewne mile łechcące ego – oświadczenia, jakby UE była pierwszym organem na świecie, który wprowadził regulacje odnośnie do SI.

Tymczasem pierwsze na świecie regulacje dotyczące SI pojawiły się w Chinach. Temat ten pojawił się w rządowych dokumentach już w 2017 r. W tym samym roku opublikowano „New Generation AI Development Plan”, który oprócz określenia ogólnych ram rozwoju SI wskazywał również na konieczność brania pod uwagę ryzyka z tym związanego. W 2020 r. w „Outline for Establishing a Rule-of-Law-Based Society (2020–2025)” pojawiły się odniesienia do konieczności regulacji dotyczących algorytmów i deepfake. W roku 2021 uregulowano kwestie dotyczące algorytmów w dokumencie „Administrative Provisions on Algorithm Recommendations for Internet Information Services”, zaś w 2022 opublikowano przepisy dotyczące treści tworzonych syntetycznie (obrazu, filmów wideo, itp.) w dokumencie „Provisions on Management of Deep Synthesis in for Internet Information Services”. Z kolei w 2023 r. propozycję zasad dotyczących generatywnej SI zawarto w dokumencie „Interim Measures for the Management of Generative Artificial Intelligence Services”. Poniżej przedstawiam główne założenia tych trzech filarów regulacji SI w Chinach.

Trzy filary regulacji

  • Algorytmy – stworzono rejestr algorytmów. Każdy algorytm wykorzystywany do uczenia maszynowego SI musi być zarejestrowany w specjalnej bazie. Określono wymogi bezpieczeństwa dla tych algorytmów, których wynik działania może kształtować opinię publiczną lub mobilizować społeczeństwo. Wymagane jest dokładne określenie rodzaju danych, które wykorzystuje się do trenowania SI oraz nakazano przestrzegania praw autorskich oraz ochrony danych osobowych związanych z takimi zbiorami danych. Konieczne jest również przedstawienie struktur organizacyjnych oraz środków technicznych gwarantujących spełnienie norm bezpieczeństwa. Po rejestracji algorytmu w bazie, skrócona wersja informacji rejestracyjnych dostępna jest dla opinii publicznej online.
  • Treści syntetyczne – wymóg etykietowania treści generowanych syntetycznie w taki sposób, aby ich odbiorca był świadomy tego, że zostały wytworzone przy wykorzystaniu SI. Wymóg wpisania algorytmów do ich wytwarzania do bazy danych opisanej powyżej. Wymóg uzyskania bezpośredniej i świadomej zgody każdego użytkownika, którego dane są wykorzystywane do tworzenia treści syntetycznych.
  • Generatywne SI – wymóg rejestracji algorytmów dla LLM w bazie, zaostrzone wymogi dotyczące zbiorów danych wykorzystywanych do uczenia maszynowego (dane prawdziwe, rzetelne, obiektywne i różnorodne) oraz przestrzeganie praw autorskich do danych. Zagwarantowanie, że treści generatywnego SI nie dyskryminują ze względu na płeć lub rasę.

Zmiany, zmiany, zmiany

Oprócz tych najważniejszych przepisów stanowiących kamienie milowe regulacji SI w Chinach, całe środowisko prawne wokół niego podlega nieustannym modyfikacjom. Trwa ciągła interakcja między tworzącymi przepisy a środowiskiem biznesowym i użytkownikami. Prowadzi to do zmian w przepisach, definiowania standardów i propozycji nowych regulacji. Poniższa (wybiórcza) lista pokazuje, jak wiele działo się i dzieje w Chinach (i nie tylko) w tym obszarze.

W sierpniu 2023 r. na 15 szczycie państw BRICS ogłoszono powołanie AI Study Group, która ma na celu ograniczenie ryzyka związanego z rozwojem AI oraz opracowanie ram rozwoju i standardów dla branży SI. To próba stworzenia instytucji tworzącej propozycje norm dla SI dla globalnego południa.

Komitet standaryzacyjny TC260 opublikował wytyczne dotyczące stosowania znaków wodnych (widocznych i niewidocznych) dla treści tworzonych przez generatywną SI. Zaproponowano konkretne metody (domeny przestrzennej i transformaty Fouriera) oraz zakres informacji, jaki się w takim znaku musi znaleźć.

W swoim kolejnym komunikacie TC260 zdefiniował standardy dotyczące testów bezpieczeństwa dla algorytmów uczenia maszynowego, zarówno dla samego uczenia, jak i usług oferowanych na ich bazie. Standardy dotyczą zapewnienia bezpieczeństwa danych (pochodzenie z wiarygodnych i legalnych źródeł), a także danych osobowych (anonimizacja), określając wymóg oceny ryzyka związanego z ich wykorzystywaniem dla poszczególnych użytkowników i całego społeczeństwa oraz określenia stopnia kontroli nad nimi oraz ich odporności. Wymagane jest też przewidzenie i utworzenie specjalnych mechanizmów bezpieczeństwa na wypadek utraty kontroli nad SI, w tym interwencja ludzi w przypadku zawieszenia się sytemu lub błędnego jej działania lub też związana z kwestiami etycznymi i społecznymi (np. dyskryminacja).

Opublikowano ponadto trzy kolejne testy służące do badania bezpieczeństwa dużych modeli językowych (LLM), powiększając liczbę dostępnych testów do sześciu – obecnie są to: CoAI, FlagEval, CValues, SafetyBench, SuperCLUE-Safety i Chinese-FactEval.