W Stanach Zjednoczonych pojawiają się obawy, że sztuczna inteligencja może w poważny sposób wpłynąć na wynik tegorocznych wyborów. W styczniu przed prawyborami prezydenckimi w New Hampshire część mieszkańców tego stanu otrzymało telefony od Joe Bidena, który namawiał ich, aby nie uczestniczyli w prawyborach. „Twój głos robi różnicę w listopadzie, a nie we wtorek” – namawiał prezydent USA.

Jednak po wnikliwej analizie okazało się, że głos nie należy do Joe Bidena, lecz został wygenerowany przez sztuczną inteligencję. Oszustów zdradziły spółgłoski szczelinowe, wypowiadane w dość dziwny sposób, odbiegający od mowy ludzkiej. Autorem nagrania była firma Life Corporation z Teksasu, a biuro prokuratora generalnego w New Hampshire wydało jej nakaz zaprzestania działalności, powołując się na prawo przeciwko tłumieniu wyborów.

Amerykanie nie bez przyczyny obawiają się, iż najbliższe miesiące przyniosą ze sobą wiele podobnych incydentów, a ich liczba będzie się zwiększać wraz z rosnącą temperaturą kampanii prezydenckiej. Zresztą zjawisko dotyczy nie tylko wyborców zza oceanu. Według Międzynarodowej Fundacji Systemów Wyborczych około 70 krajów, które według szacunków obejmą około czterech miliardów ludzi, ma przeprowadzić w tym roku wybory krajowe.

Niestety, twórcy generatywnej sztucznej inteligencji nie mają zbyt dobrych wiadomości dla obywateli liczących na sprawiedliwe wybory. Sam Altman powiedział podczas styczniowego spotkania w Davos, że jest ostrożny w ocenach co do tego, jak technologia jego firmy może być wykorzystana w wyborach. W każdym razie zamierza to uważnie obserwować. OpenAI deklaruje podjęcie szeregu działań w celu przygotowania się do wyborów, w tym zakazu używania swoich narzędzi do kampanii politycznej, kodowania szczegółów dotyczących pochodzenia obrazów generowanych przez jego narzędzie Dall-E oraz odpowiadania na pytania o to, jak i gdzie głosować w USA za pomocą linku do CanIVote.org.

Jednak część komentatorów tonuje nastroje. Ich zdaniem nawet najbardziej wysublimowane oszustwa nie zmienią preferencji Amerykanów, bowiem większość z nich już zadecydowała na kogo zagłosuje w wyborach prezydenckich. Co nie zmienia faktu, że różnego rodzaju podróbki generowane przez sztuczną inteligencję wprowadzają zamieszanie, a ludzie w pewnym momencie zaczynają kwestionować nawet prawdziwe zdjęcia i obrazy. Tak było między innymi 7 października podczas ataków Hamasu na Izrael.

Fałszywki w mediach społecznościowych

Oszuści najczęściej dystrybuują treści na portalach społecznościowych. W ciągu ostatnich dwóch lat największe zmiany zaszły na Twitterze. Nowy właściciel Elon Musk nie tylko zmienił nazwę platformy na X, ale też przywrócił wiele wcześniej zawieszonych kont, a także zwolnił 1200 pracowników ds. bezpieczeństwa. Z drugiej strony w ostatnich miesiącach ekscentryczny miliarder zatrudnił około 100 moderatorów treści, którzy pracują między innymi w Austin. Z kolei Meta zwolniła wielu moderatorów, choć jej szefowie twierdzą, że rozszerzyli ogólne wysiłki na rzecz zaufania i bezpieczeństwa. Warto przy tym odnotować, że X, Meta i YouTube przywróciły konta Trumpa po marszu na Capitol 6 stycznia 2021 r.

Właściciele największych serwisów społecznościowych w Stanach Zjednoczonych obiecują swoje zaangażowanie w uzyskiwaniu wiarygodnych wiadomości związanych wyborami. W tym kontekście Elon Musk wprowadził funkcję sprawdzania faktów Commity Notes, polegającą na dodawania kontekstu do postów. Co ciekawe, taka adnotacja zdążyła się już pojawić się przy wiadomościach publikowanych przez Donalda Tuska i Mateusza Morawieckiego. Natomiast Meta zakazała publikacji reklam politycznych w ostatnim tygodniu przez zaplanowanym terminem wyborów, czyli 5 listopada. Koncern oznacza też fotorealistyczne obrazy stworzone przy użyciu funkcji SI.

Jak do tej pory władze federalne Stanów Zjednoczonych nie wykryły dużej liczby ingerencji w wybory ze strony innych państw. Paul Nakasone, emerytowany szef U.S. Cyber Command, przysiągł przed ustąpieniem, że ingerencja zewnętrznych sił w tegoroczne wybory w USA będzie znikoma i nie wpłynie na ich wynik.