Są kontrektne zagrożenia dla firm, związane z korzystaniem z ChatGPT i innych narzędzi do dużych modeli językowych (LLM). Dyrektorzy ds. prawnych i zgodności powinni ocenić ryzyko i opracować odpowiednie środki, by pracownicy korzystając z ChataGPT nie wpędzili firmy w kłopoty.

Ignorowanie tych zagrożeń może narazić przedsiębiorstwa na konsekwencje prawne, wizerunkowe i finansowe – ostrzega Gartner.

Sześć rodzajów ryzyka, jakie powoduje ChatGPT, którym muszą zająć się liderzy ds. prawnych i zgodności

1 Sfabrykowane i niedokładne odpowiedzi
To może być najczęstszy problem: dostarczanie nieprawidłowych, choć pozornie wiarygodnych informacji.

„ChatGPT jest podatny na „halucynacje”, w tym sfabrykowane odpowiedzi, które są błędne, oraz nieistniejące cytaty prawne lub naukowe” – ostrzega Ron Friedmann, starszy analityk Gartnera. Radzi przygotowanie wytycznych dla pracowników, by robili przegląd wszelkich danych wyjściowych generowanych przez ChataGPT.

2 Prywatność i poufność danych
Wrażliwe albo zastrzeżone informacje użyte w monitach mogą zostać włączone do odpowiedzi dla osób spoza przedsiębiorstwa. W firmie trzeba więc wdrożyć zakaz wprowadzania poufnych danych do publicznych narzędzi LLM.

3 Błąd modelu i wyników
Chodzi o stronniczość danych, której całkowicie nie da się wyeliminować. Może pomóc współpraca z ekspertami merytorycznymi, aby zapewnić wiarygodność danych wyjściowych, audyty w celu ustalenia kontroli jakości danych.

4 Ryzyko związane z własnością intelektualną i prawami autorskimi
ChatGPT jest szkolony na dużej ilości danych, które prawdopodobnie zawierają materiały chronione prawem autorskim. Dlatego wyniki mogą naruszać te prawa. Dyrektorzy ds. prawnych powinni więc śledzić zmiany w prawie autorskim, które mają zastosowanie do danych wyjściowych ChataGPT i wymagać od użytkowników sprawdzania tych danych, aby upewnić się, że nie naruszają one praw autorskich i własności intelektualnej.

5 Ryzyko oszustwa cybernetycznego
ChatGPT jest już nadużywany do generowania fałszywych informacji na dużą skalę. Co gorsza jest podatny na szybką iniekcję, technikę hakerską, w której złośliwe monity przeciwnika są wykorzystywane do nakłaniania do wykonywania zadań, do których model nie był przeznaczony (np. pisanie kodów złośliwego oprogramowania lub opracowywanie phishingu witryny). Należy informować o zagrożeniach personel zajmujący się cyberbezpieczeństwem firmy w tej sprawie.

6 Zagrożenia związane z ochroną konsumentów
Firmy, które nie ujawnią konsumentom korzystania z ChataGPT (np. w postaci chatbota obsługi klienta), ryzykują utratę zaufania swoich klientów i oskarżenie o nieuczciwe praktyki. Dyrektorzy ds. prawnych i zgodności muszą więc upewnić się, że korzystanie z ChataGPT w ich organizacji jest zgodne z przepisami w tym zakresie, a klientom zostały przekazane odpowiednie informacje.