W myślach przygotowałem sobie pierwsze zdanie tego felietonu: „W listopadowym numerze CRN naliczyłem…”. Właśnie, policzyłem i wyszło mi zero odniesień do sztucznej inteligencji. Ani słowa o AI! To niespodzianka w czasach, gdy praktycznie na każdej witrynie czy w prezentacjach firm informatycznych, w mediach, nie tylko branżowych, roi się od AI. A firmy konsultingowe w swoich opracowaniach przewidują silne wzrosty rynku sprzedaży systemów AI i wieszczą, że bez „AI inside” żaden produkt nie ma szansy na jutrzejszym rynku.

Równocześnie rząd USA, na ostatniej prostej kadencji POTUS-a, w memorandum „Guidance for Regulation of Artificial Intelligence Applications” nakazuje agencjom rządowym promowanie postępu w technice i innowacjach AI. Ma to się odbywać przy jednoczesnej ochronie amerykańskiej technologii w gospodarce i w ramach narodowego bezpieczeństwa, a także z dbałością o prywatność i inne wartości amerykańskie, w tym podstawy wolności, prawa człowieka, praworządność i poszanowanie własności intelektualnej.

Z kolei Komisja Europejska prezentuje „Białą księgę w sprawie sztucznej inteligencji – europejskie podejście do doskonałości i zaufania”, w której przedstawia do konsultacji społecznych założenia strategiczne rozwoju AI dla utrzymania wiodącej strategii UE w zakresie korzystania z technik AI służących wszystkim Europejczykom, przyczyniających się do poprawy ich życia przy jednoczesnym poszanowaniu ich praw. Zwraca się też, wobec braku korporacji, w kierunku MŚP oferując im wsparcie finansowe na rozwój systemów AI.

Również poszczególne kraje, w tym Polska, zabrały się za podobne opracowania rozwoju badań i wdrożeń sztucznej inteligencji (SI) w oprogramowaniu. Podobne działania zapewne też podjęły Chiny, Izrael i Rosja, ale z powodów językowych, a może też zgodnie z rosyjską zasadą „tisze jediesz, dalsze budiesz”, po prostu mniej o tym wiemy.

W USA, Europie, w Polsce też, już w okresie wiosennej walki z pandemią zamierzano zastosować systemy AI, umożliwiające wyodrębnianie ognisk zakażenia ze wskazywaniem osób, które mogły w nich przebywać. Takie systemy wcześniej zastosowały, z pozytywnym efektem, Chiny i Korea Południowa. Niestety, u nas te aplikacje nie zyskały społecznego poparcia. Społeczeństwa krajów demokratycznych zaprotestowały przeciwko używaniu tego typu systemów gromadzenia danych osobowych nawet w tak ważnym celu, jak walka z rozszerzającą się pandemią, nie mając gwarancji, że władza przy tej okazji nie wykorzysta tych danych do celów inwigilacji obywateli. Nie odnotowaliśmy też spektakularnego systemu AI do analizy wszystkich danych medycznych dotyczących koronawirusa – dostajemy bowiem, często sprzeczne i cząstkowe informacje.

Do pracy wzięli się też prawnicy analizując możliwość dopasowania obecnego prawodawstwa do oceny prawnej skutków decyzji wynikających z działania systemów SI oraz odpowiedzialności prawnej za szkodliwe efekty pracy urządzeń przez nich kontrolowanych. Szybko przeszli do formułowania zapisów ograniczających ryzyko negatywnych skutków przez spowolnienie rozwoju SI. Miałoby to spowodować wymóg spełnienia iluś tam dodatkowych wymagań albo wręcz zakaz prowadzenia niektórych badań nad AI.

Uzupełnieniem tej twórczości prawnej są dyskusje nad kodeksem etycznym dla twórców SI, gdyż to programiści mają być odpowiedzialni za skutki działania programów z funkcjonalnością SI. I to nawet, gdy obserwacja zaprogramowanych przez nich procedur uczenia się w kolejnych iteracjach stanie się bardzo trudna. Z tego też pewnie względu rozpatruje się możliwość ograniczenia niektórych kierunków badań nad rozwojem AI, które mogą być wykorzystane wbrew interesom społeczeństwa.

W zapisach prawnych istotna będzie definicja systemu lub programu z funkcjonalnością AI, gdyż bez niej takie zapisy będą bezadresowe. I powinna to być definicja prosta i jednoznaczna. Co więcej powinna istnieć miara tego, jak bardzo lub w jakim stopniu dany system czy program jest sztucznie inteligentny. Być może warto przyjąć miarę ilorazu sztucznej inteligencji – AIQ, na wzór ilorazu inteligencji IQ, przyjmując podobne wartościowanie. Bo przecież czego innego możemy oczekiwać od programu z AIQ<70, a czego innego wymagać gdy AIQ>130 (jak wiadomo IQ<60 oznacza upośledzenie umysłowe, zaś IQ>130 oznacza inteligencję geniusza). Tylko jak mierzyć ten iloraz? Czy może będziemy robić programowi testy na sztuczną inteligencję?

Obecnie jesteśmy w pierwszej fazie marketingu sztucznej inteligencji w rozwoju informatyki, czyli próbie tworzenia i sprzedaży wszystkich nowych produktów ze znaczkiem „AI inside”, bez względu na to ile w danym produkcie jest rzeczywiście tego AIQ. Nie wiem ile takich systemów czy programów jest potrzebnych i ile może powstać niebawem. Wiadomym jest, że obecnie sprawność i moc obliczeniowa sprzętu cyfrowego jest już tak znacząca, że znajduje się blisko granicy technologicznych możliwości tworzenia wydajniejszych procesorów. Pozostaje już tylko ich zrównoleglenie, co komplikuje oprogramowanie i obniża efektywną sprawność systemu. Jednocześnie techniki programowania oraz techniki AI pozwalają na sprostanie tworzeniu wysoce złożonych algorytmów dla wielu zagadnień, dotychczas trudno rozwiązywalnych. Będziemy czekać na rezultaty.

Ale też, bez względu na zaistnienie rozwiązań o wartościach AIQ dużo większych od najlepszych IQ (według mnie jest to mało prawdopodobne), mogę się pokusić o wyliczenie cech obowiązkowej funkcjonalności nowych programów i systemów:

1) Obsługa programu jest prosta i zrozumiała, nawet dla osób z niskim IQ, gdyż zgodnie z przyjętymi zasadami, technika SI nie może dominować nad ludzką inteligencją, pozostawiając jej podejmowanie ostatecznej decyzji.

2) Program korzystając z technik AI weryfikuje poprawność wszystkich danych wejściowych, szczególnie, czy nie są to dane błędne, które mogą skutkować dezinformacją w procesie przetwarzania informacji, zakłócając możliwość uzyskania poprawnego wyniku.

3) Program weryfikuje prawo każdego jego użytkownika do korzystania z programu jako całości oraz każdego z jego istotnych modułów, co ma spełniać wymagania zapewnienia bezpieczeństwa ochrony systemu przed nieuprawnionymi ingerencjami. Poziom tego bezpieczeństwa ma wzrastać po każdym kolejnym przebiegu programu, zgodnie z technikami uczenia się weryfikacji stanu środowiska programu.

4) Program kontroluje ochronę wskazanych zbiorów danych osobowych przed nieuprawnionym kopiowaniem, czy też udostępnianiem nieuprawnionym użytkownikom czy innym programom, co może być jedyną skuteczną metodą ich ochrony zgodnie z e-privacy oraz wymaganiami GDPR/RODO.

5) Program, korzystając z technik AI, na podstawie reakcji na wyniki dokonuje zmian w parametrach przetwarzania danych – ucząc się działać efektywniej przy realizacji zadań przetwarzania informacji zgodnie z ustalonymi oczekiwaniami.

6) Program gromadzi informacje o wszelkich swoich ułomnościach oraz brakach w efektywności działania, przekazując je zespołowi programistycznemu w celu ich poprawienia w kolejnej wersji programu.

Obecny okres marketingu dotyczący sztucznej inteligencji będzie trwać około 5 lat, po czym pojawi się nowy trend w rozwiązaniach teleinformatycznych, wart kolejnej akcji marketingowej. I chociaż obecny sprzęt cyfrowy jest już technicznie wysoko zaawansowany i silnie inteligentny, to również w CRN-ie należy niebawem oczekiwać wysypu artykułów z „AI inside”.

  

Autor w latach 1993 – 2016 był prezesem Polskiej Izby Informatyki i Telekomunikacji. Pracował też w firmach: Oracle, DEC Polska, 2SI, EDS Poland, TP Internet. Obecnie jest senior konsultantem przemysłu teleinformatycznego.