Z pewnością na wyjaśnienie czekają kwestie i pytania, na które nawet szefostwo Microsoftu nie może jednoznacznie odpowiedzieć, poza stwierdzeniem, że będą się starali zachować odpowiednią staranność w realizacji tych nowych rozwiązań. Z miejsca można wymienić cztery takie problematyczne tematy.

Po pierwsze, jak można zagwarantować, że do algorytmów SI nie zostaną „wstrzyknięte” czynności zmieniające efekty ich działań na rzecz, dajmy na to, rządu USA. W tym przypadku Microsoft może ulec przed stwierdzeniem, że jest to interes narodowy. Równie dobrze odpowiednio „zainfekowana” sztuczna inteligencja zacznie działać na rzecz organizacji przestępczych, czego koncern Satyi Nadelli może nie zauważyć lub też nie mieć dobrych form obrony. A że jest to możliwe, tego jasno dowodzi historia rozwoju oprogramowania tej marki. Ponieważ nie było ono odporne na wirusy, w związku z czym konieczna była instalacja – o zgrozo – Kaspersky’ego lub rumuńskiego Bitdefendera.

Poza tym, jak można zagwarantować, że te nowe algorytmy SI nie zostaną wykorzystane przeciwko obywatelom krajów UE? Zastanawiająca jest bowiem informacja, że IBM zdecydował się zaprzestać prac nad rozpoznawaniem osób. Tutaj również, wbrew intencjom Microsoftu, może zadziałać przykaz z kół rządowych lub z innych wpływowych źródeł.

Załóżmy ponadto, że z jakiegoś powodu któryś z algorytmów SI będzie źle działać (źle się uczyć) i spowoduje poważne szkody. Czy będzie szansa na przeprowadzenie śledztwa, przesłuchanie autorów tegoż algorytmu – obywateli stanu Washington – czy też ich osądzenia na terenie Unii Europejskiej? Patrząc na przypadek 737 MAX, będzie to raczej niemożliwe.

I wreszcie, w jaki sposób Microsoft zagwarantuje, także w Polsce, ciągłość usług przetwarzania w chmurze w sytuacji, gdy się u nas pojawią „zielone ludziki”, wyganiając załogę fortu Trumpa? Tracąc suwerenność, tracimy też dostęp do całej bazy danych administracji państwowej (fakt, że może ona przetrwać ten zły czas na „wygnaniu”).

Oczywiście to wszystko mieści się w ramach ryzyka biznesowego i trudno zaniechać działalności z obawy, że mogą wystąpić jakieś problemy. Jednakże przy tak znaczących inwestycjach oraz przejęciach dokonywanych przez Microsoft (ale także Google’a) praktycznie całych polskich zasobów informacyjnych i chyba większości unijnych, kontrolowanych przez sztuczną inteligencję, zasadnym jest postulat bardzo dogłębnej analizy każdego możliwego ryzyka wraz z przygotowaniem odpowiednich procedur ratunkowych. A tego, niestety, w odpowiedzi Microsoftu na unijną „Białą Księgę AI”, ani w niej samej, nie znalazłem. Stąd mój niepokój.

Wacław Iszkowski  

Autor w latach 1993-2016 był prezesem Polskiej Izby Informatyki i Telekomunikacji. Pracował też w firmach: Oracle, DEC Polska, 2SI, EDS Poland, TP Internet. Obecnie jest senior konsultantem przemysłu teleinformatycznego.