Wielokrotnie w mediach pojawiały się informacje o tym, że pod koniec maja 2021 r. ruszyły konsultacje publiczne pakietu projektów przepisów dotyczących sztucznej inteligencji (AI). Podobnie też informowano, że od dawna Polska aktywnie uczestniczy w projektach na rzecz rozwoju AI, między innymi przyjmując w grudniu ubiegłego roku „Politykę dla rozwoju sztucznej inteligencji w Polsce”. Wszyscy też z satysfakcją i nadzieją na rozwój obserwujemy tworzące się ramy prawne dotyczące sztucznej inteligencji, które mają zagwarantować bezpieczeństwo i prawa podstawowe obywateli oraz przedsiębiorstw, a tym samym przyczynić się do upowszechnienia AI oraz do zwiększenia inwestycji i innowacyjności w tej dziedzinie w całej Europie.

Wszystkie powyższe założenia niezaprzeczalnie są potrzebne i spotykają się z pozytywnym odbiorem. Warto jednak w tym wszystkim zadać sobie pytanie, kto ponosi odpowiedzialność cywilną za działanie sztucznej inteligencji. Czy będą to programiści? Osoby wdrażające system sztucznej inteligencji? Osoby uczące system odpowiedniego zachowania, reakcji na bodźce otaczającego świata? Osoby wprowadzające oprogramowanie do obrotu? Producenci urządzeń wyposażonych w system AI? Właściciele urządzeń korzystających z inteligentnego systemu? Czy może osoby posługujące się systemem AI w ramach swojej działalności gospodarczej lub w celach prywatnych? Kto konkretnie i na jakich zasadach będzie odpowiedzialny za działanie sztucznej inteligencji?

Odpowiedź na szereg istotnych pytań zawarta jest w dość obszernym i mało zrozumiałym projekcie przepisów dotyczących sztucznej inteligencji, który jeszcze nie był w tym miejscu szerzej omawiany. Parlament Europejski wydał 4 maja 2020 r. projekt rozporządzenia wraz z zaleceniami dla Komisji Europejskiej dotyczący charakteru odpowiedzialności cywilnej za sztuczną inteligencję (dalej jako „projekt”) wobec poszkodowanych osób fizycznych i prawnych.

Prawo unijne ponad krajowym…

Zanim przejdę do szczegółowego omówienia odpowiedzialności należy wyjaśnić dwie zasadnicze kwestie. Po pierwsze, omawiam projekt rozporządzenia wraz z zaleceniem, który znajduje się na etapie ustawodawczym, czyli nie dość, że może się jeszcze zmienić, to dzisiaj nie stanowi źródła prawa, a tylko propozycję nowego aktu prawnego, która prawdopodobnie będzie obowiązywać dopiero za kilka lat. Niemniej warto już dzisiaj zacząć się przygotowywać do tego, co ma zostać wdrożone w prawie. Dodatkowo z projektu wynika, że akt ten powinien mieć status rozporządzenia, co oznacza, że nie będzie potrzeby jego wdrożenia do polskiego porządku krajowego. Oznacza to tyle, że nim się spostrzeżemy, stanie się on prawem powszechnie obowiązującym i to niezależnie od tego, czy to się krajowemu ustawodawcy będzie podobało, czy też nie. Zgodnie z założeniami, w ten sposób zapewniona będzie maksymalna jednolitość rozwiązań prawnych na terenie Unii Europejskiej.

Po drugie, jak się ma tytuł do treści artykułu o odpowiedzialności za działanie AI? Nikogo nie trzeba przekonywać, że sztuczna inteligencja redefiniuje wiele zawodów przez automatyzację oraz optymalizację procesów, a co się z tym wiąże, powoduje, że maszyny zastępują rutynową i powtarzalną pracę na niespotykaną wcześniej skalę. Nie możemy wykluczyć, że w przyszłości ktoś z nas zleci prostsze prace prawne związane np. ze sporządzaniem umowy mecenasowi-robotowi, wykorzystując dobrodziejstwa sztucznej inteligencji, a także powierzy temu samemu mecenasowi reprezentację w sporze sądowym w tzw. drobnych roszczeniach, które będzie rozstrzygał inteligentny system komputerowy, czyli „krzemowy sędzia”.

Absurdalne? Oczywiście, że nie. Rozejrzyjmy się dookoła i odpowiedzmy sobie na pytanie, jak często korzystamy z z takich narzędzi jak np. Google Translate? Być może ktoś teraz pomyśli, że zanim dotrze to do naszego kraju, to już mnie to nie będzie dotyczyło. Otóż Sąd Rejonowy Poznań Stare Miasto w Poznaniu w ubiegłym roku zajmował się precedensową sprawą automatycznego tłumaczenia tekstów z wykorzystaniem sztucznej inteligencji. Jak czytamy, jest to prawdopodobnie pierwsza sytuacja w historii orzecznictwa, gdzie polski sąd powszechny podjął się oceny nieprawidłowości profesjonalnego tłumaczenia dokonanego przez Google Translate.

Powyżej przywołany przeze mnie wyrok dotyczy sporu sądowego na linii biuro tłumaczeń a wykonawca tłumaczenia. I tu uwaga – skoro Sąd Rejonowy przyjął, czytamy w uzasadnieniu, że „wykonanie tłumaczenia z użyciem Google Translate stanowi nie tyle nienależyte wykonanie umowy, ile jej niewykonanie. […] Wrzucenie tekstu w translator ma niewiele wspólnego z profesjonalnym tłumaczeniem tekstów”, to kto w takim razie był wykonawcą tłumaczenia i potencjalnie powinien ponieść odpowiedzialność cywilną?

Na to pytanie autorzy omawianego projektu zapewne nie odpowiedzą, a i ja nie będę dzisiaj starał się na to odpowiedzieć. Chcę dzisiaj zwrócić uwagę na to, że idea, jaka przyświeca projektowi jest taka, że autorzy chcą z jednej strony zapewnić osobom pokrzywdzonym możliwość dochodzenia odszkodowania od podmiotu, który wyrządził szkodę, a z drugiej strony chcą umożliwić podmiotom rozwój technologiczny ich produktów lub usług. Rozwiązanie, z którym ostatecznie będziemy mieć do czynienia, powinno spełniać nie tylko oczekiwania producentów, osób wdrażających systemy sztucznej inteligencji, ale również pokrzywdzonych.

Zakaz ograniczania odpowiedzialności

Projekt Parlamentu Europejskiego zakłada wprost i dość jednoznacznie, że zasady odpowiedzialności wytwórców (manufacturer), operatorów końcowych (backend operator) i programistów (developer) tworzących sztuczną inteligencję nie można ograniczyć albo wyłączyć całkowicie w drodze umownej pomiędzy wdrażającym system sztucznej inteligencji a daną osobą fizyczną lub prawną. Wszelkie tego typu postanowienia umowne będą nieważne. Rozwiązania prawne projektu unijnego będą miały pierwszeństwo przed uregulowaniami krajowymi w przypadku ewentualnego konfliktu przepisów.

Kto i za co ma być odpowiedzialny?

Całe szczęście, w tym zakresie zmiany nie są przewidziane. Odpowiedzialność zawsze będzie ponosił człowiek. Działania autonomicznie podejmowane przez sztuczną inteligencję mają swoją „pierwotną przyczynę” w działalności człowieka, który projektuje, wdraża lub modyfikuje systemy sztucznej inteligencji. Co zaś znajdzie się pod ochroną odpowiedzialności cywilnej? Jak podkreślono w projekcie prawo ma chronić krzywdę lub szkodę na życiu, zdrowiu, integralności cielesnej i majątku osoby fizycznej lub prawnej, wyrządzonej na terenie Unii Europejskiej. Czego z kolei projekt nie planuje chronić? Przepisów projektu nie zastosujemy do roszczeń z obszaru ochrony dóbr osobistych, ochrony danych osobowych, prawa antydyskryminacyjnego czy prawa ochrony konsumentów. Zdaniem autorów projektu obecnie istniejące przepisy są w tym zakresie wystarczające.

No dobrze, czyli kto będzie ponosił odpowiedzialność? Otóż odpowiedzialność jest zaskakująco precyzyjnie i wąsko zaadresowana do osób wdrażających (deployer) system sztucznej inteligencji. Odpowiedzialność producentów, wytwórców (manufacturer), operatorów końcowych (backend operator) i programistów (developer) tworzących sztuczną inteligencję ma zostać uregulowana odrębnie w dyrektywie o produktach wadliwych, która ma zostać w tym zakresie znowelizowana.

Rodzaje odpowiedzialności, ubezpieczenie, przedawnienie

W projekcie przewidziano dwa rodzaje odpowiedzialności cywilnej. Pierwszy rodzaj odpowiedzialności oparty został o zasadę ryzyka. Zasada została wprost zaadresowana do wdrażających systemy wysokiego ryzyka. Projekt zawiera listę, katalog systemów nazwanych systemami wysokiego ryzyka, są nimi: bezzałogowe statki powietrzne, pojazdy autonomiczne o poziomach 4 i 5, autonomiczne systemy zarządzania ruchem, roboty autonomiczne, a także autonomiczne urządzenia do czyszczenia miejsc publicznych. Katalog ten wskazuje na szeroko pojętą branżę transportową i jest katalogiem zamkniętym z możliwością jego aktualizowania przez Komisję Europejską nie częściej niż raz na sześć miesięcy.

Projekt, poza odpowiedzialnością cywilną, nakłada na wdrażających systemy AI wysokiego ryzyka obowiązek posiadanie ubezpieczenia OC w wysokości 10 mln euro w wypadku krzywdy w postaci śmierci i naruszenia stanu zdrowia oraz 2 mln euro w wypadku szkody we własności.

Zwracam uwagę, że z branży transportowej oraz od osób zainteresowanych tematyką słychać dosyć wyraźnie, że treść definicji wdrażającego, jaka jest zawarta w projekcie, wskazywać może na to, że z ubezpieczenia będą wyłączone osoby korzystające z systemów AI wysokiego ryzyka. Korzystający z systemu AI wysokiego ryzyka nie kontroluje tego ryzyka, ponieważ – przykładowo – tylko steruje środkiem transportu, dronem i nie ma żadnego wpływu na działanie AI, czy też nie ma wpływu na decyzję o tym, jakie konkretne oprogramowanie zostało wdrożone.

Wymaga podkreślenia długi okres przedawnienia roszczeń, który miałby wynosić 30 lat od dnia wystąpienia szkody w wypadku śmierci lub naruszenia zdrowia oraz 10 lat od dnia wystąpienia szkody dla przedmiotu własności, z zastrzeżeniem alternatywnego terminu 30 lat od dnia uruchomienia systemu.

Drugi rodzaj odpowiedzialności cywilnej za działanie systemu sztucznej inteligencji oparty został o zasadę winy. Podobnie jak wyżej, wymieniona zasada ryzyka w zakresie systemów wysokiego ryzyka, ta zasada również została zaadresowana do wdrażających pozostałe systemy AI, czyli wszystkie inne systemy niż te zdefiniowane jako systemy wysokiego ryzyka.

W tym reżimie odpowiedzialności cywilnej warto zwrócić uwagę na bardzo interesującą konstrukcję dodatkowej odpowiedzialności po stronie wdrażających system. Jest to odpowiedzialność, która na zasadzie winy nałożona została na wdrażających system i oparta została także o ochronę przed ingerencją osób trzecich w działanie systemu przy jednoczesnym braku możliwości identyfikacji sprawcy cyberataku.

Dodatkowe zobowiązanie nałożone na wdrażającego, w mojej ocenie, automatycznie wymusi wyższy standard świadczenia usług, co może okazać się korzystne, ponieważ wdrażający poświęci więcej uwagi temu, czy do danego rozwiązania dobrano właściwy system AI, czy powierzono napisanie systemu AI odpowiednim fachowym, kompetentnym specjalistom, jak też czy zapewniono końcowemu użytkownikowi systemu możliwości aktualizacji systemu AI etc.

Wnioski

Uregulowanie prawne odpowiedzialności cywilnej za działanie systemu AI jest w mojej ocenie dobrym pomysłem. Nie jestem przekonany, czy proponowana odpowiedzialność cywilna powinna być uregulowana dodatkowym, odrębnym, opasłym aktem prawnym. Wydaje mi się natomiast, że pożądanym rozwiązaniem byłaby kodyfikacja pakietu rozwiązań prawnych kompleksowo regulująca sztuczną inteligencję. Projekt wpisuje się w przyjęte przez Polskę założenia zmierzające do rozwinięcia i pełnego wykorzystywania potencjału sztucznej inteligencji. Projekt rozporządzenia, po doprecyzowaniu zakresu pojęciowego użytych definicji i wyeliminowaniu pojawiających się wątpliwości, odpowiada zapotrzebowaniu elastycznego i stałego reagowania na rozwój technologii przez ustanawianie przyjaznego prawodawstwa. Przyczyni się do wzrostu zainteresowania branżą prawniczą zorientowaną na sztuczną inteligencję, a to z uwagi na konieczność konsultowania z prawnikami zasad odpowiedzialności za szkody wywołane przez systemy AI.

Jak to zostało zasygnalizowane, projekt nakłada nowe, istotne obowiązki zarówno po stronie podmiotów uczestniczących w produkcji i wdrażaniu systemów AI, jak i po stronie podmiotów planujących wykorzystanie AI w sektorze uznanym za krytyczny (transportowym). Planując wdrożenie systemów opartych na AI warto pomyśleć o skonsultowaniu projektu z prawnikiem już na początku procesu, aby zminimalizować możliwość wystąpienia szkody i ograniczyć do minimum ryzyko bycia pociągniętym do odpowiedzialności, jeśli coś potoczy się w nieprzewidzianym kierunku.

Mateusz Ostrowski  

Adwokat, partner, szef Praktyki Postępowań Sądowych w kancelarii Kochański & Partners.