Japońskie firmy zakazują albo ograniczają pracownikom możliwość korzystania z ChatGPT w obawie przed wyciekiem informacji – informuje Nikkei.

SoftBank, właściciel ARM-a, ostrzegł pracowników, by nie wprowadzali do ChatGPT informacji identyfikujących firmę i innych poufnych danych. Korporacja ma wprowadzić odpowiednie regulacje w tej kwestii.

NEC zabronił pracownikom korzystania z ChatGPT. Panasonic Connect, spółka z grupy Panasonic Holdings, ostrzegła ludzi ze swoich zespołów, by nie podawali ChatGPT danych osobowych.

Według Nikkei firma zaczęła wykorzystywać interaktywną sztuczną inteligencję do tworzenia dokumentów po podjęciu działań zapobiegających wyciekom danych. Zawarła też umowę z Microsoftem, aby wprowadzane treści nie były wykorzystywane do „drugorzędnych” celów, jak szkolenia.

Hitachi rozważy ustanowienie nowych zasad korzystania z interaktywnej sztucznej inteligencji.

Fujitsu powiadomiło pracowników o kwestiach ochrony informacji, dotyczących ChatGPT. Powołano jednostkę do podejmowania decyzji o wykorzystaniu AI.

ChatGPT wchłania i wykorzystuje dane „w celu ulepszenia modeli”

Według Nikkei informacje podane przez OpenAI, twórcę ChatGPT, sugerują, że przy jego darmowym użyciu firma może wykorzystać przekazywane dane „w celu ulepszenia naszych modeli”.

Zapewnia natomiast, że w ramach płatnej opcji integracji ChatGPT z usługami firm, dane zebrane w ten sposób nie będą wykorzystywane.

Pracownicy łatwo mogą się wygadać

Jak zauważa jeden z cytowanych ekspertów, łatwość korzystania z ChatGPT sprawia, że pracownicy stają się mniej ostrożni, co stwarza ryzyko wprowadzenia i wykorzystania poza firmą poufnych informacji.

Radzi, by firmy powołały specjalne zespoły, które zajmą się zasadami użytkowania interaktywnej AI i określą, jakie dane można wprowadzać do ChatGPT.

W styczniu br. ChatGPT miał już ponad 100 mln użytkowników.