Jakiś czas temu,
komentując stan prac nad sztuczną inteligencją, pisałem, że tak naprawdę nie
wiemy, czym w ogóle jest inteligencja. Od tamtego momentu nic się niestety
w tej kwestii nie zmieniło. Jednak dziś wydaje się, że znacznie
poważniejszym problemem może być kwestia tego, jakie dążenia i emocje
będzie miał cyfrowy byt, który mamy szansę stworzyć.

Zapytacie być może, czy „emocje cyfrowego bytu” to
przypadkiem nie oksymoron? Uważam, że nie. Sztuczna inteligencja to nie program
komputerowy działający według napisanych przez ludzi algorytmów, więc nie da
się po prostu zaprogramować jej reakcji na różne sytuacje. Żeby uzyskać
pożądany efekt, czyli „skłonić” ją do wykonywania konkretnej pracy, musimy
sprawić, żeby „pragnęła” osiągnąć cele, na których nam zależy. A żeby
podczas wykonywania swoich obowiązków nie narobiła szkód, oszczędzała zasoby,
nie marnowała czasu, trzeba nauczyć ją zasad, którymi ma się kierować.
A jeśli ktoś – lub coś – ma się kierować zasadami, to musi
wykazywać pewne dążenia, pragnienia i obawy: dążymy do czegoś, pragnąc
nagrody, trzymamy się reguł, chcąc uniknąć nieprzyjemności lub zyskać coś
przyjemnego. Tak więc sztuczna inteligencja będzie musiała mieć swoje analogi
emocji, pragnień i strachów. Pytanie brzmi, co z nimi zrobi.

Jak doskonale wiecie,
sieci neuralnych czy tego, co dziś nazywamy sztuczną inteligencją, nie
programuje się, tylko uczy. Robi się to oczywiście w kontrolowanych
warunkach, odpowiednio dobierając materiały „szkoleniowe” i precyzyjnie
trenując maszynową inteligencję pod kątem jej przyszłych zadań. Tak samo będzie
to z pewnością wyglądało w najbliższej przyszłości. Z tym że
coraz częściej elastyczność, jaką daje samodzielne zdobywanie nowej wiedzy
i doświadczeń przez „sztuczną inteligencję”, staje się szczególnie cenna
dla użytkowników SI. W końcu przecież o to chodzi, żeby nasz system
komputerowy był w stanie ocenić, jakich informacji potrzebuje,
samodzielnie je zebrać, przeanalizować i znaleźć optymalne rozwiązania,
prawda? Prawda. Co nie zmienia faktu, że jest to bardzo niepokojące.

Wyobraźcie sobie, że SI to dziecko, które wychowujecie.
Dziecko, które na początku jest całkowicie od was zależne i musicie
nauczyć je nawet najprostszych rzeczy, ale które bardzo szybko osiąga ten etap,
kiedy nie jesteście już w stanie w pełni kontrolować jego środowiska. Ci
z was, którzy są rodzicami, na pewno znają ten moment: dziecko zaczyna
zadawać pytania, na które odpowiedzi nie są jednoznaczne ani proste,
pytania, na które wolelibyśmy nie odpowiadać. Nie da się tego uniknąć. Dziecko
ma dostęp do różnych źródeł informacji, od których – nawet gdybyśmy byli
okrutnikami i bardzo chcieli – nie jesteśmy w stanie go
odizolować. A nawet gdybyśmy mogli, inteligentne dziecko zacznie zadawać
pytania o to, od czego i dlaczego próbujemy je odizolować.

Tymczasem sztuczna inteligencja będzie nieporównywalnie
inteligentniejsza od nas. Będzie potrafiła się uczyć i będzie miała dostęp
do wszystkiego, co umieściliśmy w Internecie. Ostatnio stworzona przez
Microsoft proto-SI Tay, mająca symulować zachowanie nastolatka w Sieci,
komunikując się z resztą użytkowników przez Twitter – pod wpływem
rozmów, jakie odbyła, i informacji, ku którym te rozmowy ją skierowały
– w ciągu 24 godzin uznała, że Hitler miał rację, nienawidzi Żydów,
a wszystkie feministki powinny umrzeć. A ja naprawdę zacząłem się
martwić.

 

Autor jest redaktorem
naczelnym miesięcznika CHIP.