6 zagrożeń dla firm, które generuje ChatGPT
„ChatGPT jest podatny na halucynacje” - ostrzega analityk. Firmy, które zignorują ryzyko, mogą mieć duży problem.

ChatGPT może wydawać się doskonałym narzędziem ułatwiającym pracę, jednak zapobieganie problemom, jakie może wywołać, niekoniecznie będzie łatwe.
Są kontrektne zagrożenia dla firm, związane z korzystaniem z ChatGPT i innych narzędzi do dużych modeli językowych (LLM). Dyrektorzy ds. prawnych i zgodności powinni ocenić ryzyko i opracować odpowiednie środki, by pracownicy korzystając z ChataGPT nie wpędzili firmy w kłopoty.
Ignorowanie tych zagrożeń może narazić przedsiębiorstwa na konsekwencje prawne, wizerunkowe i finansowe – ostrzega Gartner.
Sześć rodzajów ryzyka, jakie powoduje ChatGPT, którym muszą zająć się liderzy ds. prawnych i zgodności
1 Sfabrykowane i niedokładne odpowiedzi
To może być najczęstszy problem: dostarczanie nieprawidłowych, choć pozornie wiarygodnych informacji.
„ChatGPT jest podatny na „halucynacje”, w tym sfabrykowane odpowiedzi, które są błędne, oraz nieistniejące cytaty prawne lub naukowe” – ostrzega Ron Friedmann, starszy analityk Gartnera. Radzi przygotowanie wytycznych dla pracowników, by robili przegląd wszelkich danych wyjściowych generowanych przez ChataGPT.
2 Prywatność i poufność danych
Wrażliwe albo zastrzeżone informacje użyte w monitach mogą zostać włączone do odpowiedzi dla osób spoza przedsiębiorstwa. W firmie trzeba więc wdrożyć zakaz wprowadzania poufnych danych do publicznych narzędzi LLM.
3 Błąd modelu i wyników
Chodzi o stronniczość danych, której całkowicie nie da się wyeliminować. Może pomóc współpraca z ekspertami merytorycznymi, aby zapewnić wiarygodność danych wyjściowych, audyty w celu ustalenia kontroli jakości danych.
4 Ryzyko związane z własnością intelektualną i prawami autorskimi
ChatGPT jest szkolony na dużej ilości danych, które prawdopodobnie zawierają materiały chronione prawem autorskim. Dlatego wyniki mogą naruszać te prawa. Dyrektorzy ds. prawnych powinni więc śledzić zmiany w prawie autorskim, które mają zastosowanie do danych wyjściowych ChataGPT i wymagać od użytkowników sprawdzania tych danych, aby upewnić się, że nie naruszają one praw autorskich i własności intelektualnej.
5 Ryzyko oszustwa cybernetycznego
ChatGPT jest już nadużywany do generowania fałszywych informacji na dużą skalę. Co gorsza jest podatny na szybką iniekcję, technikę hakerską, w której złośliwe monity przeciwnika są wykorzystywane do nakłaniania do wykonywania zadań, do których model nie był przeznaczony (np. pisanie kodów złośliwego oprogramowania lub opracowywanie phishingu witryny). Należy informować o zagrożeniach personel zajmujący się cyberbezpieczeństwem firmy w tej sprawie.
6 Zagrożenia związane z ochroną konsumentów
Firmy, które nie ujawnią konsumentom korzystania z ChataGPT (np. w postaci chatbota obsługi klienta), ryzykują utratę zaufania swoich klientów i oskarżenie o nieuczciwe praktyki. Dyrektorzy ds. prawnych i zgodności muszą więc upewnić się, że korzystanie z ChataGPT w ich organizacji jest zgodne z przepisami w tym zakresie, a klientom zostały przekazane odpowiednie informacje.
Podobne aktualności
Cztery obszary, w których ChatGPT pomoże firmom
Nowe możliwości dla przedsiębiorstw stworzy integracja AI z automatyzacją procesów biznesowych – wynika z przewidywań.
AI: polskie firmy są daleko za światem, ale potencjał jest wielki
Ponad 60 proc. firm nie potrafi ocenić, jakie korzyści biznesowe odnosi z inwestycji w sztuczną inteligencję.
5 barier hamuje rozwój AI w polskich firmach
Na jeden aspekt polscy przedsiębiorcy muszą szczególnie uważać.