W drugiej połowie kwietnia br. Komisja Europejska opublikowała projekt rozporządzenia w sprawie sztucznej inteligencji, które ustanawia zharmonizowane zasady w zakresie AI oraz zmienia niektóre inne akty prawne. Dokument ten może sporo namieszać na rynku nowych technologii, także w sektorze finansowym. Na pierwszy ogień weźmy sobie definicje, które mają istotne znaczenie w kontekście zastosowania rozporządzenia.

Zanim jednak przejdę do definicji, warto określić kogo będzie dotyczyć proponowane rozporządzenie. Mamy więc dostawców „promujących systemy AI na terenie UE (niezależnie skąd pochodzą), użytkowników tych systemów zlokalizowanych w UE oraz dostawców i użytkowników tych systemów, którzy przebywają poza UE, ale sam rezultat działania systemu AI jest wykorzystywany na terenie Unii” (tłumaczenie moje).

Kwestia ODPOWIEDZIALNOŚCI  

 

Poza tym, że rozporządzenie definiuje użytkownika – de facto kogoś, kto korzysta z systemu AI (z wyłączeniem użytku osobistego), mamy też kilku innych „uczestników” łańcucha wykorzystania systemu AI, czyli:

  1. Upoważnionego reprezentanta – jest to podmiot utworzony w Unii, który otrzymał upoważnienie od dostawcy do wykonywania obowiązków nałożonych przez rozporządzenie w imieniu tego dostawcy.
  2. Importera – podmiot również utworzony na terenie UE, który wprowadza system AI na rynek w imieniu podmiotu spoza UE. Ważne przy tym, że również „placing on the market” znalazło swoją definicję, czyli pierwsze udostępnienie systemu na terenie UE (mamy też i inne definicje z tej kategorii).
  3. Dystrybutora – podmiot w ramach tzw. supply chain, który nie jest dostawcą ani importerem, a który udostępnia system AI na terenie UE, ale bez – i tutaj jestem nieco skonfudowany – „affecting its properties” (przyznam szczerze, że nie wiem, o co tutaj dokładnie chodzi).
  4. Operatora, którym będzie każdy z powyższych podmiotów, i tyle. Choć nie ma tutaj rozwinięcia tej definicji, to rozumiem, że chodzi o podmiot, który korzysta z benefitów generowanych przez system AI – pytanie tylko, jak to się ma do „usera”?

Z innych ważnych definicji warto zwrócić uwagę na dwie dotyczące działania algorytmu. Chodzi mianowicie o:

  1. Zamierzony cel, czyli założone użycie systemu AI określone przez dostawcę, włączając w to kontekst i warunki użytkowania określone w odpowiedniej informacji dostarczanej przez tego dostawcę – katalog informacji jest dość szeroki.
  2. „Reasonably foreseeable misuse”, czyli możliwe do przewidzenia niewłaściwe użycie, które należy rozumieć jako takie użycie systemu AI, które nie jest zgodne z założonym celem, ale które może być rezultatem przewidywalnego ludzkiego zachowania lub interakcji z systemem.

Definicje te będą szalenie istotne z punktu widzenia ewentualnej odpowiedzialności dostawcy systemu AI – zakładam, że niezależnie czy będziemy mówić tutaj o odpowiedzialności na zasadzie winy czy ryzyka. Jest to też – już na tym etapie – bezpośrednia sugestia odnośnie do tego, jak bardzo szczegółowa powinna być informacja przekazywana odbiorcy systemu AI w zakresie możliwych zastosowań takiego systemu. Odpowiednia przejrzystość i jasność tych informacji będzie przecież przedmiotem ewentualnej oceny w przypadku powstania szkody i oceny na ile dostawca za nią odpowiada. Z powyższym wiąże się także inne zagadnienie, a mianowicie wydajność systemu AI, którą należy rozumieć jako jego zdolność do osiągania zamierzonych celów.

  

Pierwszą i najważniejszą definicją jest system AI. Zgodnie z propozycją Komisji jest to oprogramowanie utworzone z użyciem jednej lub więcej technik i sposobów (podejść) określonych w załączniku 1 do rozporządzenia, i które to oprogramowanie jest zdolne do wygenerowania określonego rezultatu, np. treści, przewidywań, rekomendacji czy decyzji, które mają wpływ na cele określone przez człowieka. Definicję trudno się czyta, ale chyba dobrze oddałem propozycję zawartą w rozporządzeniu.

Przydałby się „FINE-TUNING”   

 

W projekcie znajdziemy trzy definicje dotyczące danych wykorzystywanych przy systemach AI. Chodzi o:

  1. Dane treningowe, czyli służące do wytrenowania algorytmu.
  2. Dane walidacyjne, czyli takie, które służą do oceny wytrenowania algorytmu i poprawy jego wydajności, w tym w zakresie uczenia się.
  3. Dane testowe, czyli takie, które służą do niezależnej ewaluacji wytrenowanego algorytmu w celu potwierdzenia przewidywanej wydajności i działania systemu AI.

Te definicje nie mają charakteru wyłącznie teoretycznego. Już teraz możemy wskazać, że na podmiotach istniejących w ramach „supply chain” ciążyć będą spore obowiązki w tym zakresie, nie tylko na etapie trenowania modelu, ale także przygotowania stosownej dokumentacji technicznej, monitorowania rozwoju systemu czy wprowadzania tzw. corrective actions.

Słowem komentarza po przejściu definicji: wydaje się, że potrzebny jest jeszcze „fine-tuning”, bo niektóre pojęcia zdają mi się dość niejasne lub napisane są językiem, który może spowodować pewną konfuzję, a pamiętajmy, że przepisy nie będą kierowane wyłącznie do prawników. Ciekawa jest też zamknięta lista technik, które warunkują „podpięcie” systemu pod system AI w rozumieniu rozporządzenia. Może dzisiaj nie znamy jakichś rozwiązań, które będą bardziej rozbudowane. Co wtedy?

  

Jeżeli chodzi o techniki, które mogą stanowić podstawę do zakwalifikowania systemu jako AI, to mamy tutaj m.in. wszelkiej maści uczenie maszynowe, uczenie głębokie, estymacje bayesowskie czy systemy eksperckie. Katalog jest więc dość szeroki, ale ważne jest to, że – przynajmniej na razie – jest to lista zamknięta, a więc w przypadku ewolucji i pojawienia się nowego rozwiązania nie będzie ono objęte powyższą definicją.

Kolejny jest dostawca. Tutaj rozumiemy go jako osobę fizyczną lub prawną, jednostkę sektora publicznego, agencję czy inny organ, który rozwija system AI lub korzysta z takiego systemu z zamiarem udostępnienia go na rynku lub wykorzystywania do świadczenia usług pod własną nazwą//szyldem i to niezależnie od tego, czy będzie to miało miejsce odpłatnie czy nie. Ta definicja również jest bardzo istotna, bowiem zakwalifikowanie podmiotu do tej kategorii powoduje, że będą na nim ciążyły dodatkowe obowiązki, np. w kontekście systemów wysokiego ryzyka, które są określone przykładowo w Rozdziale 3 projektu.

Michał Nowakowski Michał Nowakowski  

jest radcą prawnym specjalizującym się w regulacjach finansowych i nowych technologiach, w tym szczególnie dotyczących bankowości i płatności oraz rynków kapitałowych. Head of NewTech w NGL Advisory oraz Counsel w NGL Legal. Prowadzi również blog: finregtech.pl