Modele w chmurze: pewne i bezpieczne
„Mamy środowisko, w którym stosowana przez użytkownika aplikacja może skomunikować się z wybranym modelem AI, a model ma dostęp do danych, które są niezbędne do jego sprawnego funkcjonowania” – mówi Dariusz Korzun, Dyrektor Globalnej Architektury Rozwiązań Chmurowych oraz Główny Architekt Platformy Generatywnej AI w PepsiCo.

Dariusz Korzun, Dyrektor Globalnej Architektury Rozwiązań Chmurowych oraz Główny Architekt Platformy Generatywnej AI w PepsiCo
Zapewne nie przez przypadek łączy Pan kompetencje dotyczące środowiska chmurowego z odpowiedzialnością za wdrażanie rozwiązań z zakresu sztucznej inteligencji…
Dariusz Korzun Pracuję w pionie, który w naszej firmie odpowiada za infrastrukturę chmury prywatnej i publicznej. Z kolei zespół, którym bezpośrednio kieruję, zajmuje się architekturą wszystkich wprowadzanych do chmury rozwiązań. Pełnimy istotną rolę w procesie uruchamiania aplikacji w chmurze, tworząc chociażby obowiązujące w tym zakresie standardy. Dodatkowo odpowiadamy też za rozwój architektury rozwiązań z zakresu sztucznej inteligencji i ich wdrażanie. Przy czym wszystkie one funkcjonują i są udostępniane użytkownikom w środowisku chmurowym.
W całym PepsiCo, czy tylko w Pepsi Polska?
Globalnie, bowiem wszystkie rozwiązania chmurowe i wszystkie rozwiązania AI są scentralizowane w zakresie ich budowy i utrzymania. Lokalny oddział, na przykład biuro w Polsce, może chcieć zbudować sobie własne narzędzie, własny system, ale platforma technologiczna, na której to rozwiązanie będzie uruchamiane, ma charakter globalny. Tak funkcjonuje, ze względów bezpieczeństwa, cała architektura i jej obsługa. Dlatego nie ma czegoś takiego jak na przykład polska czy amerykańska specyfika systemu Azure. To środowisko chmurowe, jak każda inna infrastruktura, jest oferowane każdemu dokładnie w taki sam sposób, niezależnie od regionu czy kraju. Lokalizacją, w której uruchamiane są docelowo wszystkie aplikacje i modele sztucznej inteligencji, jest dzisiaj w PepsiCo chmura, bez względu na to, czy te rozwiązania są używane w oddziale norweskim, australijskim czy każdym innym.
Czym jest w praktyce platforma generatywnej sztucznej inteligencji? Mowa w tym przypadku o komponencie globalnej platformy chmurowej?
Modele sztucznej inteligencji, tak jak każdy system informatyczny, potrzebują odpowiedniego środowiska technicznego do ich uruchamiania i funkcjonowania. Zarówno w przypadku uczenia maszynowego, jak i generatywnej sztucznej inteligencji mamy wcześniej przygotowany, wytrenowany model. Żeby jednak z niego skorzystać, musimy zapewnić mu odpowiednie warunki działania, czyli właściwe dla niego środowisko. W przypadku narzędzia skierowanego do wielu użytkowników w przedsiębiorstwie potrzebujemy warunków zapewniających bezpieczeństwo korzystania, dostęp do danych firmowych z wielu różnych źródeł, jak też możliwość komunikowania się z wieloma systemami. Spektrum oczekiwanych od modelu AI funkcji wymaga, aby w jego zasięgu było wiele różnych rozwiązań, z których będzie mógł korzystać w celu sprawnego działania. Naszym zadaniem jest oferowanie dobrze funkcjonującej w środowisku chmurowym platformy, na której można uruchamiać różne modele sztucznej inteligencji. Są na niej dostępne dodatkowe narzędzia przydatne dla aplikacji wykorzystujących modele zarówno z zakresu machine learning, jak i generative AI.
Jaka jest w takim razie Pańska rola jako architekta tej platformy?
Moim zadaniem jest rozwój platformy, środowiska, które umożliwi uruchamianie systemów GenAI oraz doradzanie w zakresie architektury i przy doborze komponentów, a na koniec weryfikacja pod kątem technicznym oraz bezpieczeństwa rozwiązań, które mają zostać uruchomione w środowisku. Modele AI/ML mogą być tworzone na potrzeby użytkowników przy współpracy z wyspecjalizowanymi zespołami technicznymi, które posiadają unikalne kompetencje w zakresie AI/ML oraz znają możliwości wspólnej dla całej organizacji platformy. Dzięki temu możemy zapewnić ich standaryzację i korzystanie z nich jest bezpieczniejsze oraz efektywniejsze. Jeśli na przykład mamy do czynienia z analizą tekstu, to model potrzebuje dostępu do dodatkowych narzędzi pozwalających na wykorzystywanie słów kluczowych do wyszukiwania informacji w indeksach czy bazach danych. To nie jest funkcja dostępna bezpośrednio w modelach machine learning, to jest dodatkowa funkcja, która pomaga modelom lepiej odpowiadać na pytania, ale wymaga dodatkowych narzędzi. Dzięki platformie możemy zaoferować taką dodatkową, powtarzalną funkcję wszystkim twórcom aplikacji w firmie. Zamiast za każdym razem tworzyć własne rozwiązania, mogą skorzystać z już istniejącego, dostępnego globalnie produktu komunikującego się ze stworzonym przez nich modelem.
A co w sytuacji, gdy ktoś chce skorzystać z zewnętrznego, powszechnie dostępnego narzędzia, na przykład ChataGPT?
Platforma to środowisko, które zajmuje się obsługą systemów, które mają komunikować się z modelami Machine Learning i Generative AI. Tu ważna uwaga: model nie jest aplikacją, to raczej zestaw binarnych danych. Do jego obsługi służą osobne aplikacje. Platforma dostarcza do tych aplikacji wszystkich narzędzi oraz niezbędnych połączeń, które pozwalają tym aplikacjom wykonywać operacje z wykorzystaniem modeli sztucznej inteligencji. Modele są też jednym z elementów dostarczanych użytkownikom rozwiązań. Jeśli ktoś chce korzystać ze standardowego rozwiązania, na przykład modelu OpenAI, to korzysta z niego za pośrednictwem platformy. Aplikacja klienta, której używa użytkownik, jest aplikacją stworzoną przez naszą firmę na jej potrzeby. Odwołuje się ona do platformy i platforma dalej już sama wykonuje wiele potrzebnych operacji. Może na przykład zweryfikować, czy wysłany do przetworzenia przez AI tekst jest bezpieczny, bądź wyszukać w bazie wiedzy dodatkowe, potrzebne informacje i przesłać je do modelu. Sam model jest też oferowany przez platformę jako jeden z jej komponentów.
Podobne wywiady i felietony
Oszczędnie i bezpiecznie
„Model sam w pewnym momencie nauczył się zarządzać wydajnością pomp w sposób, którego nie braliśmy wcześniej pod uwagę. Byliśmy tym zaskoczeni, chociaż jest to w gruncie rzeczy bardzo logiczne rozwiązanie” – mówi Władysław Dzik, kierownik Grupy Robót ds. Automatyki w Zakładzie Utrzymania Ruchu Wodociągów Miasta Krakowa.
AI zwiększa efektywność marketerów
„Coraz częściej robię najpierw burzę mózgów ze sztuczną inteligencją, zanim wyjdę z jakimś pomysłem do swoich współpracowników, czy do przełożonych” – mówi Magdalena Popielewicz, kierująca projektem AI Lab w GroupM Poland.
Pomocne boty
„Widzimy duży potencjał w zastosowaniu neuronowych modeli językowych. Pozwalają one tworzyć nowe, jak też usprawniać już funkcjonujące rozwiązania” – mówi Paweł Klimiuk, szef Biura Rozwoju Sztucznej Inteligencji w PKO Banku Polskim.