Autorzy listu otwartego „Pause Giant AI Experiments: An Open Letter”, zainicjowanego przez Future of Life Institute (organizację non-profit), apelują o zaprzestanie przynajmniej na sześć miesięcy działań związanych z rozwojem zaawansowanych narzędzi SI. Obawiają się, że ekspresowe tempo prac nad generatywną sztuczną inteligencją może przynieść dużo więcej szkód niż korzyści. „Osiągnęliśmy punkt, w którym systemy te są na tyle inteligentne, że można je wykorzystać w sposób niebezpieczny dla społeczeństwa. I jeszcze tego nie rozumiemy” – komentuje na łamach The Wall Street Journal Yoshua Bengio, kierownik naukowy Montrealskiego Instytutu Algorytmów Uczenia.

List nie wzywa do całkowitego wstrzymania prac nad SI, lecz namawia do rezygnacji z rozwoju systemów szkolących narzędzia potężniejsze niż GPT-4, a konkretnie chodzi w tym przypadku o następną generację GPT-5. Tymczasem Sam Altman, CEO i założyciel OpenAI, ripostuje, że od dawna traktuje bezpieczeństwo priorytetowo i jego firma poświęciła ponad sześć miesięcy na testy GPT-4 przed uruchomieniem.

Przypomnijmy, że wielka wrzawa wokół OpenAI wybuchła 30 listopada ubiegłego roku, kiedy zaprezentowano chatbota udzielającego mniej lub bardziej sensownych odpowiedzi na różnorodne pytania i rozwiązującego proste zadania. W ciągu pierwszych pięciu dni z narzędzia skorzystało ponad milion użytkowników. Technologię tę wykorzystał Microsoft – jako jeden z głównych inwestorów Open-AI – w swojej przeglądarce internetowej Bing (w odpowiedzi na ten ruch Alphabet wdrożył konkurencyjny system, podobnie jak Adobe, Zoom i Salesforce). Co ważne, Satya Nadella nie zamierza zwalniać tempa, bowiem wyścig się dopiero zaczyna i trzeba poruszać się szybko. Takie podejście wzbudziło uzasadnione obawy wśród ekspertów, wśród których znalazł się między innymi prof. Max Tegmark, jeden z autorów wspomnianego listu i prezes Future of Life Institute, uczący fizyki w Massachusetts Institute of Technology. Jak podkreśla: „Niefortunne jest przedstawianie tego, co dzieje się obecnie wokół generatywnej sztucznej inteligencji jako wyścigu zbrojeń. To bardziej wyścig samobójców. Nie ma znaczenia, kto dotrze tam pierwszy. Oznacza to po prostu, że cała ludzkość może stracić kontrolę nad własnym losem”.

Ciekawostką jest fakt, że Future of Life Institute początkowo pozwolił podpisać się pod listem każdemu chętnemu, bez weryfikacji tożsamości. W pewnym jednak momencie w gronie sygnatariuszy znalazł się Sam Altman, którego nazwisko później usunięto. Tymczasem założyciel OpenAI twierdzi, że nigdy nie podpisywał apelu, choć jego firma wspólnie z innymi firmami SI często koordynuje standardy bezpieczeństwa. „Nie podejmujemy się niektórych prac, ponieważ nie wiemy co zrobić, aby były wystarczająco bezpieczne. Myślę, że są sposoby na spowolnienie rozwoju pewnych obszarów i jest to część naszej strategii” – zapewnia Sam Altman.

Pod listem podpisali się Elon Musk i Steve Wozniak. Pierwszy z wymienionych napisał na Twitterze, że twórcy zaawansowanej technologii SI i tak nie zastosują się do tego ostrzeżenia, ale ważne, żeby przynajmniej ludzie ze świata IT, w tym eksperci wyrazili swój sprzeciw wobec tego niepokojącego zjawiska. Z kolei Yann Le Cun, główny naukowiec zajmujący się sztuczną inteligencją w Meta Platforms, oznajmił, że nie podpisał listu, ponieważ nie zgadza się z jego założeniami. Natomiast wśród sygnatariuszy znalazł się Emad Mostaque, dyrektor generalny Stability AI, który pozytywnie ocenia fakt, że rozpoczyna się ważna dyskusja, która może wnieść większą przejrzystość w zarządzanie „nieprzejrzystym” obszarem. „Nie możemy sobie pozwolić na to, aby po prostu iść naprzód i łamać zasady. Musimy poświęcić trochę czasu, aby przemyśleć te kwestie w szerszej zbiorowości” – podsumowuje Yoshua Bengio, zdobywca nagrody Turinga za wynalezienie systemów, na których zbudowana jest sztuczna inteligencja.