Przyszłości nie mogliśmy przewidzieć, ale już z początkiem lat 90-tych spotykaliśmy naszych już byłych studentów, którzy chwalili się, że z tą pozyskaną na naszych zajęciach wiedzą są doceniani w lokujących się na polskim rynku oddziałach amerykańskich korporacji. I rzeczywiście – po rewolucji 4 czerwca 1989 roku – tu w Polsce nie mieliśmy wiele pojęcia o zasadach sprzedaży, marketingu, zarządzaniu, ale świetnie dawaliśmy sobie radę ze zrozumieniem najnowszych technik informatycznych. Było to dużym zaskoczeniem dla menedżerów z korporacji, gdyż wtedy oni myśleli, że za tą, do niedawna żelazną kurtyną, była tylko siermiężna wiedza o działaniu siermiężnych komputerów, głównie rodem jeszcze z ZSRR.

I tak minęło 40 lat. W maju 2023 r. profesor z uznanej uczelni technicznej zapytał mnie, czy byśmy nie zgodzili się na II wydanie książki. Stwierdził, że ten nasz podręcznik jest stale używany, a jego treść prawie w całości odpowiada prowadzonym obecnie wykładom z Programowania Współbieżnego. Nieco się zdziwiliśmy, bo już od 30 lat nie prowadzimy zajęć na uczelni. Co prawda docierało do nas, że nasza książka jest wciąż wypożyczana, kserowana oraz można ją kupić na Allegro za 26,51 w stanie silnie używanym.

Wiemy też, że w 1996 r. pojawiło się tłumaczenie podręcznika Menachema Ben-Ariego „Podstawy programowania współbieżnego i rozproszonego” (WNT), zaś w 2010 r. Zbigniewa Czecha „Wprowadzenie do obliczeń równoległych” (PWN), a z kolei w roku 2012 Pawła Majdzika „Programowanie współbieżne, Systemy czasu rzeczywistego” (ebook Helion) i kilka innych o podobnej tematyce. Podobno jednak żadna z nich nie jest monografią taką, jak nasz podręcznik.

Ten przypadek świadczy o tym, że w informatyce, tak jak w każdej z innych dyscyplin, istnieje kanon wiedzy podstawowej, praktycznie niezmienny przez lata, który każdy zajmujący się daną dyscypliną powinien znać. W informatyce jest to maszyna Turinga, algebra Boole’a, architektura komputera von Neumanna, algorytmy i struktury danych, procesy, wątki i metody ich synchronizacji, oprogramowanie podstawowe, relacyjne bazy danych itd. W bieżącej pracy informatycznej ta podstawowa wiedza ujawnia się w podświadomości pozwalając intuicyjnie zrozumieć i zaimplementować działania systemów teleinformatycznych. I między innymi dlatego zdajemy sobie sprawę, że „potęga” systemu sztucznej inteligencji tak naprawdę drzemie w komputerze wykonującym program będący sekwencją rozkazów zapisanych binarnie i działających na wskazanych danych również będących sekwencjami zero-jedynkowych bitów. A ten komputer oraz ten program, a także zbiór danych został przygotowany przez człowieka, dzięki jego umiejętnościom informatycznym, prawdziwej inteligencji, intuicji oraz zawodowym doświadczeniom i podstawowej wiedzy o tej dziedzinie nauki i techniki.

Czy podejmiemy się przygotowania II wydania poprawionego naszego podręcznika sprzed 40 lat? Tego jeszcze nie wiem. To zależy czy znajdziemy odpowiednie wsparcie z kilku uczelni oraz czy zaakceptuje to Polskie Wydawnictwo Naukowe, mające obecnie prawa wydawnicze, przejęte od Wydawnictw Naukowo-Technicznych, do tej książki. Niemniej jednak satysfakcja już się pojawiła – nasza monografia jest klasykiem informatyki, a my klasykami.

Wacław Iszkowski  

Autor w latach 1993–2016 był prezesem Polskiej Izby Informatyki i Telekomunikacji. Pracował też w firmach: Oracle, DEC Polska, 2SI, EDS Poland, TP Internet. Obecnie jest senior konsultantem przemysłu teleinformatycznego.