Akt w sprawie sztucznej inteligencji: pierwsze przepisy regulujące sztuczną inteligencję
Sztuczną inteligencję w UE będą regulować pierwsze na świecie kompleksowe przepisy dotyczące AI – akt o sztucznej inteligencji.
W ramach swojej strategii transformacji cyfrowej, UE chce uregulować sztuczną inteligencję (AI) w sposób zapewniający lepsze warunki do rozwoju i wykorzystania tej innowacyjnej technologii. Sztuczna inteligencja może przynieść wiele korzyści, w tym lepszą opiekę zdrowotną, bezpieczniejszy i czystszy transport, bardziej wydajną produkcję oraz tańszą i bardziej zrównoważoną energię.
W kwietniu 2021 r. Komisja Europejska zaproponowała pierwsze unijne ramy legislacyjne dotyczące sztucznej inteligencji. Projekt analizuje i klasyfikuje systemy AI, które mogą być używane w różnych aplikacjach, według ryzyka, jakie stwarzają dla użytkowników. Różne poziomy ryzyka będą niosły ze sobą mniej lub więcej obowiązków. Gdy zostaną zatwierdzone, będą to pierwsze na świecie przepisy dotyczące sztucznej inteligencji.
Oczekiwania Parlamentu Europejskiego
Priorytetem Parlamentu Europejskiego jest dopilnowanie, aby systemy sztucznej inteligencji stosowane w UE były bezpieczne, przejrzyste, identyfikowalne, niedyskryminujące i przyjazne dla środowiska. Systemy sztucznej inteligencji powinny być nadzorowane przez ludzi, aby zapobiegać szkodliwym skutkom. Parlament chce również ustalenia neutralnej technologicznie, jednolitej definicji sztucznej inteligencji, którą można będzie zastosować do przyszłych systemów sztucznej inteligencji.
Nowe przepisy określają obowiązki dostawców i użytkowników w zależności od poziomu ryzyka reprezentowanego przez sztuczną inteligencję. Chociaż wiele systemów sztucznej inteligencji stwarza minimalne ryzyko, należy je ocenić.
Systemy AI niedopuszczalnego ryzyka
Systemy sztucznej inteligencji stwarzające niedopuszczalne ryzyko, czyli uważane za zagrożenie dla ludzi, zostaną zakazane. Należy do nich poznawczo-behawioralna manipulacja ludźmi lub określonymi wrażliwymi grupami: na przykład zabawki aktywowane głosem, które zachęcają dzieci do niebezpiecznych zachowań. Kolejny zakaz ma dotyczyć scoringu (klasyfikacja punktowa) obywateli: klasyfikacja ludzi na podstawie ich zachowania, statusu społeczno-ekonomicznego lub cech osobistych. I wreszcie na cenzurowanym mają być systemy identyfikacji biometrycznej działające w czasie rzeczywistym i zdalnie, takie jak rozpoznawanie twarzy.
Dopuszczalne mogą być pewne wyjątki: na przykład zdalne systemy identyfikacji biometrycznej identyfikujące ze znacznym opóźnieniem będą mogły być wprawdzie używane do ścigania poważnych przestępstw, ale wyłącznie po uzyskaniu zgody ze strony sądu.
Systemy AI wysokiego ryzyka
Systemy sztucznej inteligencji negatywnie wpływające na bezpieczeństwo lub prawa podstawowe będą uznane za systemy wysokiego ryzyka. Zostaną podzielone na dwie kategorie: pierwsza to systemy sztucznej inteligencji stosowane w produktach objętych unijnymi przepisami dotyczącymi bezpieczeństwa produktów (np. zabawki, lotnictwo, samochody, urządzenia medyczne i windy). Druga grupa to systemy sztucznej inteligencji należące do ośmiu konkretnych obszarów, które będą musiały zostać zarejestrowane w unijnej bazie danych: biometryczna identyfikacja i kategoryzacja osób fizycznych; zarządzanie i eksploatacja infrastruktury krytycznej; edukacja i szkolenie zawodowe; zatrudnienie, zarządzanie pracownikami i dostęp do samozatrudnienia; dostęp do i korzystanie z podstawowych usług prywatnych oraz usług i korzyści publicznych; ściganie przestępstw; zarządzanie migracją, azylem i kontrolą granic; pomoc w interpretacji prawnej i stosowaniu prawa.
Wszystkie systemy AI wysokiego ryzyka będą oceniane nie tylko przed wprowadzeniem na rynek, ale także przez cały cykl ich życia.
Generatywne systemy AI
Generatywne systemy sztucznej inteligencji, takie jak ChatGPT, będą musiały spełnić wymogi dotyczące przejrzystości, takie jak: ujawnienie, że treść została wygenerowana przez sztuczną inteligencję; zaprojektowanie modelu tak, aby nie generował on nielegalnych treści; publikowanie streszczeń chronionych prawem autorskim danych wykorzystywanych do szkoleń.
Ograniczone ryzyko
Systemy sztucznej inteligencji reprezentujące ograniczone ryzyko powinny spełniać minimalne wymogi, jeśli chodzi o przejrzystość, które umożliwiłyby użytkownikom podejmowanie świadomych decyzji. Po interakcji z tymi aplikacjami użytkownik będzie mógł następnie zdecydować, czy chce z nich dalej korzystać. Użytkownicy powinni być świadomi, że interakcja odbywa się ze sztuczną inteligencją. Obejmuje to systemy sztucznej inteligencji, które generują obrazy, treści audio lub wideo lub nimi manipulują, czyli np. wideo typu deepfake (łudząco realistyczne ruchome obrazy).
Kolejne kroki
Parlament uzgodnił swoje stanowisko negocjacyjne 14 czerwca 2023 r. i może rozpocząć negocjacje z państwami UE w Radzie na temat ostatecznego kształtu ustawy. Celem jest osiągnięcie porozumienia do końca tego roku.
Źródło: Biuletyn „Najnowsze zmiany w prawie” (Must Read Media).
Podobne artykuły
Nowym motywatorem prawo i sztuczna inteligencja
Firmy coraz bardziej przekonują się do elektronicznego obiegu dokumentów. Dla nieprzekonanych zaś skutecznym impulsem mogą być regulacje prawne.
Sztuczna inteligencja w czterech odsłonach
Startupy bardzo szybko adaptują w swoich rozwiązaniach sztuczną inteligencję. Co ważne, większość z nich nie robi tego, aby nadążać za modą, lecz zwiększać funkcjonalność produktów.
Wojna na rynku chipów: nowe linie frontu
Technologia stojąca za generatywną sztuczną inteligencją, taką jak ChatGPT, eksplodowała, napędzając popyt na specjalistyczne chipy. Jak na razie najszybciej z bloków wystartowała Nvidia, ale to dopiero początek wyścigu.