Przykład pierwszy: „Gdy samochodu nie można zatrzymać w zwykły sposób i nie można przestawić dźwigni przekładni w położenie Neutral, to wtedy obiema stopami należy wcisnąć pedał hamulca i wyłączyć układ hybrydowy przytrzymując przycisk rozruchu przez co najmniej 2 sekundy lub szybko nacisnąć go co najmniej 3-krotnie” (!?).

Przykład drugi: „Jeśli iPhone nie odpowiada i nie daje się wyłączyć, a następnie włączyć, spróbuj wymusić jego ponowne uruchomienie. Naciśnij i szybko zwolnij przycisk zwiększania głośności. Naciśnij i szybko zwolnij przycisk zmniejszania głośności. Naciśnij i przytrzymaj przycisk boczny. Gdy na ekranie pojawi się logo Apple, zwolnij przycisk boczny” (!?).

Pozostaje szukać pomocy w grupach wsparcia w internecie lub wołać Was (co może, zależnie od SLA, przynosić Wam dodatkowy dochód). Tak czy inaczej, warto jest stale przykładać się do ulepszania oferowanych produktów tak, aby były coraz bardziej przyjazne dla użytkowników, również dla Waszego dobra – będziecie mieli wtedy mniej problemów i bardziej zadowolonych klientów.

Ta ostatnia rada ma i będzie coraz więcej mieć znaczenie dla produktów z „AI inside”. W tym przypadku dla użytkowników są one bardziej tajemnicze w swoich funkcjonalnościach, niż te zwykłe. Wyposażone w oprogramowanie „głęboko się samo-uczące” na podstawie wczytywanych ogromnych ilości danych, zmieniają w czasie swoje algorytmy działania i każda kolejna sesja może pokazywać inne wyniki. Użytkownicy muszą się z tym oswoić i akceptować takie działanie. Trudniej jest też im zorientować się czy nieco odmienne niż dotychczas działanie jest wynikiem jakiegoś błędu, czy po prostu poprawnej samo-modyfikacji algorytmu.

Również dla Waszego serwisu wykrycie przyczyny błędu z potoku wykonywanych zadań może być szczególnie trudne. Dodatkowo użytkownicy, w przypadku braku akceptacji wyników – decyzji generowanych przez dany sztucznie inteligentny produkt (np. wyraźny brak równouprawnienia w decyzjach wobec pewnej grupy osób) – mogą żądać modyfikacji w samo-uczącym się algorytmie, a w skrajnych przypadkach nawet odszkodowania od projektantów i programistów tego produktu za straty moralne,  fizyczne oraz finansowe. I nawet związki zawodowe chciałyby znać  „parametry, zasady i instrukcje, na których opierają się algorytmy lub systemy sztucznej inteligencji, które mają wpływ na podejmowanie decyzji, a które mogą mieć wpływ na warunki pracy i płacy, dostęp do zatrudnienia i jego utrzymanie, w tym profilowanie” (cytat z projektu zmiany ustawy o związkach zawodowych). Czy ta kwestia nie stanowi dla Was problemu?

To tyle z mojej strony poza tym, że teraz – w grudniu mijającego 2022 – życzę Wam, Drodzy Czytelnicy CRN-a, w nowym 2023 roku dni „without problems, but issues only!”, co wujek Google przetłumaczył na „bez problemów, ale tylko problemy”. No cóż, chyba się nie zrozumieliśmy…

Wacław Iszkowski  

Autor w latach 1993–2016 był prezesem Polskiej Izby Informatyki i Telekomunikacji. Pracował też w firmach: Oracle, DEC Polska, 2SI, EDS Poland, TP Internet. Obecnie jest senior konsultantem przemysłu teleinformatycznego.