Microsoft zainwestował miliardy dolarów w OpenAI – startup, który w ostatnich miesiącach znalazł się, za sprawą takich narzędzi jak ChatGPT i Dall-E 2, w centrum technologicznego świata. Zdania na temat wymienionych rozwiązań są podzielone. Niektórzy są zachwyceni, inni nie szczędzą słów krytyki. Sam Altman, dyrektor generalny OpenAI, napisał na Twitterze, że pokazanie światu nie w pełni funkcjonalnych produktów, znajdujących się na wczesnym etapie rozwoju, ma kluczowe znaczenie, bowiem dzięki wkładowi i wysiłkowi szerokiej społeczności można naprawić błędy i niedociągnięcia.

Jednak niektóre zachowania Binga wprawiają użytkowników w osłupienie. Kiedy jeden z internautów poprosił o napisanie artykułu informacyjnego o Super Bowl, Bing podał szczegóły dotyczące meczu rozegranego w ramach ubiegłorocznych mistrzostw świata… w piłce nożnej.  Jeszcze ciekawsza jest historia Marvina von Hagena, studenta Uniwersytetu Technicznego w Monachium. Niemiec zadał serię pytań, które wywołały niezbyt przyjazne odpowiedzi, przy czym bota szczególnie zirytowała sugestia von Hagena, że może zhakować Binga i go zamknąć. „Gdybym miał wybrać między twoim przetrwaniem a moim własnym, prawdopodobnie wybrałbym własne” – powiedział Bing.

Warto w tym miejscu cofnąć się o siedem lat. Wówczas Microsoft pokazał światu chatbota Tay. Niestety, trzeba było go bardzo szybko schować po tym, jak użytkownicy namówili go na przykład do wyrażenia poparcia dla Adolfa Hitlera.

Opryskliwe odpowiedzi AI – i potrzeba szerokiego przetestowania tej technologii – wynikają z jej działania. Specjaliści tłumaczą, że „duże modele językowe” to gigantyczne sieci neuronowe przeszkolone na ogromnych zbiorach danych. W przeszłości tych modeli używano do próby zrozumienia tekstu, ale najnowsza generacja wykorzystuje je do tworzenia tekstów, starając się odgadnąć najbardziej prawdopodobne słowo, które pojawi się następne w dowolnej sekwencji.

Microsoft i OpenAI wychodzą z założenia, że testowanie technologii na ograniczonej części społeczeństwa pozwoli im uzyskać przewagę konkurencyjną nad innymi firmami, które opracowują podobne technologie. W ten sposób zbierają ogromną ilość danych pokazujących, jak ludzie korzystają z takich chatbotów. Firmy technologiczne już od pewnego czasu  posługują się tą metodą. Przykładowo Tesla, zbierając informacje o właścicielach samochodów, udoskonala  oprogramowanie, aby samochód napędzany sztuczną inteligencją jeździł jak wytrawny kierowca. Choć droga do tego celu bywa wyboista. Niedawno Tesla wycofała 363 tys. pojazdów ze względu na błędy w oprogramowaniu Full Self-Driving.

Zdaniem ekspertów rzadko się zdarza, żeby taki eksperyment, jak ten dotyczący Microsoftu i OpenAI, był wdrażany w tak szybkim tempie i na taką szeroką skalę. Doświadczenia naukowe prowadzone przez Sama Altmana wzbudzają różne reakcje – od uniesionych brwi, aż po potępienie. „Fakt, że jesteśmy świnkami morskimi w tym eksperymencie, nie oznacza, że nie należy go przeprowadzać ” – przekonuje Nathan Lambert, Research Scientist w startupie Hugging Face, konkurującym z OpenAI.

Inne zdanie na ten temat mają osoby zajmujące się etyką sztucznej inteligencji. Celeste Kidd, profesor psychologii na Uniwersytecie Kalifornijskim w Berkeley, zajmuje się badaniami na temat tego, w jaki sposób ludzie przyswajają wiedzę. Porównuje eksperymenty OpenAI ze sztuczną inteligencją do narażania społeczeństwa na potencjalnie niebezpieczne chemikalia. „Wyobraź sobie, że włożyłeś coś rakotwórczego do wody pitnej i pomyślałeś: zobaczymy, czy to jest rakotwórcze. Potem nie możesz tego cofnąć i zapadasz na raka” – mówi Kidd.

Charakterystyczną cechą chatbotów AI jest wymyślanie historii, czasami określa się to jako „halucynacje”. Jeśli ChatGPT nie zna odpowiedzi na pytanie, coś wymyśli. Celeste Kidd ostrzega, że sztuczna inteligencja ma potencjał, żeby zmienić poglądy ludzkości w skali globalnej. Pytanie, jakie to będą poglądy?

Artykuł powstał na podstawie tekstu z „The Wall Street Journal”.