Gdy 14 marca bieżącego roku podano w światowych telewizjach informację o wydaniu nowej wersji Chat GPT-4, to nawet moja 80-letnia kuzynka z Waszyngtonu przedyskutowała tę wiadomość w swoim gronie przyjaciół. I nawet mi podziękowała za wyjaśnienia dotyczące SI oraz „tego czata GPT”, co pozwoliło jej „błysnąć” wiedzą na ten temat. Nie była wyjątkiem, bo rosnąca popularność testowania GPT-3,5 oraz nowa wersja GPT-4 sprowokowała wyjątkowo wiele osób do podzielenia się publicznie zachwytami nad generatywną sztuczną inteligencją, nadając jej nawet miano zwiastuna intelektualnej rewolucji w skali niedoświadczonej od początku oświecenia. Jednocześnie pojawiło się wiele publikacji wskazujących na poważne zagrożenia wobec cywilizacji, wynikające z powszechnego, niekontrolowanego (to ważne) zastosowania wyników działania takich generatorów (bo GPT nie jest jedyny).

W zalewie publikacji szczególne miejsce zajmuje list otwarty „Pause Giant AI Experiments”, podpisany między innymi przez Elona Muska, Steve’a Wozniaka, Yuvala Noaha Harariego oraz przez 26 156 zweryfikowanych osób (na dzień 15.04.2023). Temu wezwaniu, jako kompendium zachwytów i obaw, warto się przyjrzeć z uwagą.

Abstrahując od faktycznych intencji autorów listu, stwierdzam, że zawarte w nim treści są naiwne, a jednocześnie świadczą o braku rzetelnej wiedzy, czym tak naprawdę są techniki sztucznej inteligencji oraz czym są generatory tekstów, które to mają tak bardzo zagrażać ludzkości, że trzeba aż wstrzymać prace nad ich rozwojem.

Te generatory tekstów (oraz innych typów utworów: obrazów, fraz dźwiękowych, wideo-klipów) są rzeczywiście znaczące w rozwoju informatyki, ale podobnie jak poprzednie znaczące osiągnięcia (komputery, internet, przetwarzanie danych, tekstów, grafiki, itp.) są tylko kolejnym osiągnięciem techniki teleinformatycznej. I oczywiście, jak każda nowość mogą być początkowo mało zrozumiałe dla większości potencjalnych użytkowników i mogą być (jeszcze) niedoskonałe, a ich zakres zastosowania niejasny. Co może wzbudzać obawy i tym samym czynić te twory nieakceptowanymi z wielu powodów – ekonomicznych, socjalnych, prawnych, itp.

Po pierwsze, obecne możliwe efekty działania tych systemów GPT w żaden sposób nie zagrażają społeczeństwom, bo oprócz „zalewania” ekranów swoją twórczością, nie mają bezpośredniego wpływu na jakiekolwiek decyzje czy działania, które mogą dotyczyć pojedynczych osób lub większych grup społecznych. Takie stwierdzenie ma sens tak długo, póki jacyś mniej rozumni użytkownicy tych systemów, mający zdolności decyzyjne w jakimś zakresie, nie zaczną bezkrytycznie korzystać z uzyskiwanych wyników tych generatorów do podejmowania i wdrażania w życie podpowiedzianych, ale swoich – podkreślam swoich – decyzji.

Logicznie rzecz biorąc, to korzystanie z tych systemów nie różni się zbytnio od typowego tworzenia listów, pism, raportów, podejmowania decyzji, itp. Praktycznie każdy z menedżerów czy decydentów z reguły co jakiś czas prosi sekretarkę (asystenta, podległego urzędnika, eksperta) o przygotowanie określonego tematycznie pisma, raportu, rozporządzenia lub opracowania. Następnie po jego otrzymaniu dokonuje jego weryfikacji, nanosi poprawki, żąda uzupełnienia, po czym podejmuje decyzję o jego akceptacji podpisując go swoim nazwiskiem lub nazwiskami zespołu decyzyjnego (ewentualnie odrzuca go w całości). Podpisując go, tym samym bierze odpowiedzialność za treść oraz ewentualne różnego typu skutki oddziaływania tych treści na inne osoby, podmioty czy społeczności.

Podobnie dzieje się z materiałami przygotowywanymi do publikacji w mediach. Każdy felieton, informacja, artykuł, wywiad dostarczony przez autora jest weryfikowany merytorycznie oraz co do zgodności ze źródłami, czy jest oryginalny oraz jest redagowany językowo przez odpowiedzialnego redaktora. Niekiedy jest poddawany analizie i dyskusji w szerszym gronie redakcyjnym, a nawet konsultowany z prawnikami czy nie narusza prawa. Dopiero po takim procesie akceptacji jest publikowany, a redakcja razem z autorem bierze za niego odpowiedzialność. I również podobnie są recenzowane i redagowane treści artykułów naukowych oraz treści książek przed opublikowaniem.

Wracając do tekstów wytwarzanych przez generatory wystarczy zastosować dotychczasowe procedury przygotowania ich do publikacji. Warto przy tym stwierdzić, że różnego rodzaju teksty pełne fantazji, zmyśleń pozornie prawdziwych lub oparte na błędnych informacjach, szkalujące, propagandowe czy podobne pojawiają się od lat, gdyż wyobraźnia ich autorów jest nieograniczona. I jakoś dajemy sobie z tym radę, nawet jak czasami damy się zmanipulować jakimś „oryginalnym” wystąpieniem.

Wracając do listu otwartego, to jego pierwszy akapit jest bardzo ogólny, wskazując na poważne niebezpieczeństwo związane z najnowszymi osiągnięciami korzystającymi z techniki sztucznej inteligencji. Przytaczany ASILOMAR jest zbiorem bardzo podstawowych zasad rozwoju SI z 6 lipca 2021 roku (https://futureoflife.org/open-letter/ai-principles/). Z tymi zasadami należy się zgodzić, jak też nie ma problemu z ich przestrzeganiem. Trudno się natomiast zgodzić ze stwierdzeniem, że nawet twórcy systemów SI nie są „w stanie ich zrozumieć, przewidywać lub niezawodnie kontrolować”. Bo akurat twórcy systemów korzystających z techniki SI dobrze wiedzą i rozumieją, jakie mechanizmy i w jaki sposób dokonują gromadzenia i porządkowania wiedzy mającej generować algorytmy tworzące oczekiwane przetwarzanie tej wiedzy. Oczywiście, ze względu na ilość przetwarzanych informacji, nie są w stanie podać pojedynczej reguły wnioskowania. Ale to już tak jest w informatyce w przypadku wielu obliczeń, tych numerycznych również.