Podobnie niezrozumiały jest apel o 6-miesięczne moratorium na szkolenia systemów AI podobnych do GPT, skierowany w przestrzeń bez konkretnego adresata. To kto ma przerwać te badania, skoro rządy potrzebowałyby kilka miesięcy na podjęcie odpowiednich uchwał. A drugie pytanie, to kto i jak miałby to sprawdzać, wchodząc do firmowych laboratoriów. Obecnie największe korporacje starają się przyśpieszać wprowadzenie systemów SI z generatywnym wstępnie przeszkolonym transformatorem na rynek, gdyż zdobędzie go ta, która zbierze jako pierwsza najwięcej użytkowników.

Na razie rząd włoski zabronił użytkowania GPT do czasu wyjaśnienia przez Open-AI zasad gromadzenia i przetwarzania danych osobowych w zgodzie z regułami GDPR. Również inne rządy oczekują podobnych wyjaśnień. Rzeczywiście jest to istotne, gdyż w utworzonej bazie wiedzy są miliardy informacji osobowych, a w trakcie korzystania z GPT system zbiera dodatkowe, choćby kogo co interesuje. Wydaje się, że trzeba będzie w tym przypadku zastosować odpowiednie filtry, dostępne tylko dla pewnych służb (pytanie jakich?).

Jednocześnie jakże „słuszne”, ale według mnie również naiwne, są postulaty dla programistów SI, którzy mają współpracować z decydentami. Autorzy listu apelują o powołanie nowych organów regulacyjnych zajmujących się SI, czyli wychodziłoby na to, że biurokracja ma zarządzać SI zza biurka (ciekawe skąd wezmą personel rozumiejący choćby podstawy SI). Proponują ponadto stworzenie solidnego ekosystemu audytu i certyfikacji, co oznaczałoby już IV stopień kontroli systemów SI, przy czym taki audyt może być procedurą wyjątkowo trudną, gdyż system SI uczy się w trakcie działania, zmieniając/doskonaląc się, musiałby więc podlegać stałemu audytowi! Kolejny apel dotyczy dobrze wyposażonych instytucji do walki z negatywnymi efektami działania systemów SI. Z tym akurat można się zgodzić, jeśli już istniejące agencje, dbające o porządek publiczny, nie będą potrafiły dać sobie z tym rady.

Ostatni akapit listu to pean na cześć możliwości działania systemów SI dla dobra ludzkości z równoczesnym zdecydowanym ostrzeżeniem przed możliwą poważną nieokreśloną katastrofą przez nie spowodowaną. To jak to w końcu jest? Jesteśmy za czy przeciw?

W sumie treść tego listu jest bardzo naiwna, ale znając jego autorów pojawia się pytanie, po co został w takiej postaci napisany? Próbując na to odpowiedzieć nasuwa się stwierdzenie, że rzeczywisty cel był chyba inny niż powiadomienie cywilizacji o potencjalnym zagrożeniu ze strony systemów typu GPT. Być może jest to komunikat lub ostrzeżenie skierowane do pewnego adresata. Pytanie, kto nim jest? Aby podjąć się odpowiedzi musiałbym zostać „autorem widmo” w zespole Roberta Ludluma w ramach pracy nad thrillerem o spisku teleinformatyczno-politycznym. I chyba to właśnie wyjaśnia fakt, dlaczego po tylu dniach od publikacji listu jest tylko niecałe 30 tysięcy podpisów osób, które go popie-rają! A na przykład Bill Gates i wielu innych jest mu przeciwnych.

Oczywiście proliferacja AI niesie za sobą mnóstwo zagrożeń, szczególnie że dostęp do jej działań ma miliony osób nie rozumiejących jak to działa i jak należy traktować te wyniki. I oczywiście taki list otwarty, wskazujący na te zagrożenia, powinien się pojawić. Jednak nie powinien być tak naiwny, ale poważny i zrozumiale wyjaśniający tę nowość wraz z instrukcją jej poprawnej obsługi. Nie wystarczy napisać „may be hot”.

Wacław Iszkowski  

Autor w latach 1993–2016 był prezesem Polskiej Izby Informatyki i Telekomunikacji. Pracował też w firmach: Oracle, DEC Polska, 2SI, EDS Poland, TP Internet. Obecnie jest senior konsultantem przemysłu teleinformatycznego.