Po zakończeniu pandemii sprzedaż komputerów mocno zanurkowała. Niemniej istnieje szansa, że producenci w tym roku wyjdą z dołka. Jak wskazują prognozy firmy badawczej Canalys, rynek komputerów PC może w tym roku wzrosnąć o 8 proc., aby w roku przyszłym zanotować dalszy, 20-procentowy „skok”, co stanowiłoby pierwszy tak znaczący wzrost od ponad dwóch dekad.

Analitycy i wtórujący im dostawcy zapowiadają nadejście nowej ery komputerów, a więc modeli wspomaganych przez sztuczną inteligencję. Co to tak naprawdę oznacza? Przykładowo, Canalys definiuje w ten sposób komputery stacjonarne lub notebooki ze specjalnym chipsetem lub blokiem do obsługi obciążeń SI. Na ten moment wszyscy najważniejsi producenci OEM komputerów z systemem operacyjnym Windows zaangażowali się w tworzenie urządzeń przystosowanych do pracy ze sztuczną inteligencją. Nie próżnuje również Apple, który także dostarcza taki sprzęt.

Z jednej strony sztuczna inteligencja jest wykorzystywana do poprawy wydajności sprzętu, a z drugiej również wiodący producenci oprogramowania opracowują swoje aplikacje, aby wykorzystać możliwości przetwarzania SI. Otwiera to zupełnie nowe możliwości przed twórcami grafiki, edycji dźwięku, a także użytkownikami programów biurowych czy narzędzi do współpracy. Canalys przewiduje, że 19 proc. komputerów, jakie w tym roku trafi na rynek, będzie obsługiwać sztuczną inteligencję (zgodnie z podaną wyżej, wstępną definicją). Odsetek ten ma rosnąć w kolejnych latach, wraz z odświeżaniem „parku maszyn”, co doprowadzi do tego, że na koniec 2027 r. ma sięgnąć poziomu 60 proc.

Zasadnicza zmiana ma polegać na tym, że do tej pory większość użytkowników obcowała ze sztuczną inteligencją za pośrednictwem przeglądarek internetowych oraz chmury. Taki stan rzeczy rodzi wyzwania związane z niezawodnością, szybkością i prywatnością, które pojawiają się w przypadku wszelkich platform dostępnych tylko online, z otwartym dostępem i należących do korporacji. Niemniej umieszczenie sztucznej inteligencji w komputerze wprowadza nowe reguły gry.

– Właśnie dlatego sztuczna inteligencja zmieni rolę komputera osobistego tak radykalnie i fundamentalnie, jak wcześniej zrobił to internet. Na nowo zdefiniuje to, czym jest i co robi komputer PC, ponieważ urządzenie oparte na sztucznej inteligencji umożliwi większej liczbie osób stanie się twórcami technologii, a nie tylko jej konsumentami – tłumaczy Andrzej Sowiński, dyrektor zarządzający HP Inc Polska.

Według Canalysa komputery z SI będą narzędziami zwiększającymi produktywność szczególnie w środowiskach biznesowych, gdzie otwierają się duże możliwości w zakresie tworzenia przekonujących innowacji. Jednak towarzyszą temu wyzwania, takie jak zachęcenie resellerów do zaangażowania w sprzedaż nowych urządzeń czy pokonanie oporu użytkowników. Duże znaczenie będą miały w obu przypadkach zachowanie pełnej przejrzystości i przestrzegane standardów etycznych.

Serwery w środowisku lokalnym

Zmieniające się wymagania biznesowe mają niepośledni wpływ na zmiany zachodzące w centrach danych, środowiskach brzegowych czy łączności. Firmy coraz częściej wdrażają infrastrukturę, aby przybliżyć obciążenia do miejsca, gdzie mogą optymalnie obsługiwać swoich klientów. Klasycznym przykładem jest analiza obrazu z kamer, co ma na celu wykrywanie lub śledzenie osób i obiektów.

Również sztuczna inteligencja podnosi oczekiwania biznesowe wobec niezawodności czy wydajności serwerów. Według Digitimes w tym roku globalny rynek wchłonie 337 tys. modeli high-end oraz SI. Nie jest to zawrotna liczba w kontekście tego, że tegoroczna sprzedaż osiągnie poziom 15 mln urządzeń. IDC przewiduje, że przychody ze sprzedaży serwerów wyniosą w bieżącym roku 124,7 mld dol., a zatem o 12 mld więcej niż rok wcześniej. Analitycy IDC uważają, że decydującym czynnikiem będzie w tym przypadku otoczenie makroekonomiczne. W dłuższej perspektywie czasowej, poza sztuczną inteligencją i przetwarzaniem na brzegu sieci, rynek napędzać będzie potrzeba modernizacji, jak też rozwiązania  chmurowe.

– W tym roku klienci będą poszukiwać serwerów umożliwiających dostosowanie modeli SI do specyficznych potrzeb biznesowych. Ze względu na trudności związane z przenoszeniem dużych ilości danych pomiędzy lokalnymi centrami danych a platformami chmurowymi, wzrośnie zainteresowanie serwerami instalowanymi w środowisku lokalnym. Z kolei dyrektywy NIS2 czy DORA przyczynią się do zwiększonego popytu na jednostki z zaawansowanymi funkcjami ochrony – mówi Rafał Szczypiorski, Business Development Manager – Data Center Sales w Dell Technologies.

Kolejnym ważnym kryterium wyboru powinna być efektywność energetyczna serwera. Chociaż ten czynnik odgrywa już jakąś rolę od pewnego czasu, to jednakże wraz ze wzrostem cen energii klienci przywiązują do niego coraz większą wagę.

– Wraz z nadejściem nowej generacji procesorów nastąpi wyraźny wzrost wydajności obliczeniowej oraz efektywności i przetwarzania danych, co umożliwi realizację bardziej wymagających zadań oraz aplikacji, a tym samym przyspieszy obliczenia. To będzie podążać w parze z poprawą efektywności energetycznej i optymalizacją pod kątem zużycia energii – tłumaczy Paweł Wójcik, Compute Category BDM w HPE.

Płynność danych

W obecnych czasach wzrost danych nie robi już na nikim większego wrażenia. Większość dostawców jest lepiej lub gorzej przygotowania do tego, aby składować petabajty cyfrowych informacji. Natomiast zjawiskiem, o którym wspomina się zdecydowanie rzadziej (choć zdefiniowano je już w 2010 r.) jest grawitacja danych. Stanowi ona cechę dużych zbiorów danych, polegającą na „przyciąganiu” przez nie aplikacji i usług, a także innych danych. Nazwa nawiązuje do planet przyciągających satelity siłą grawitacji. Zjawisko to jest napędzane przez ciągły rozwój nowych technologii, w tym także sztucznej inteligencji.

– Koncepcja „przepływu danych” wyłania się jako rozwiązanie wskazujące potrzebę przechowywania danych, które można w dużym stopniu komponować pod względem projektu i działania. Sukces w 2024 roku będzie definiowany przez zdolność pamięci masowej do płynnego dostosowywania się do różnych lokalizacji i technologii, przy jednoczesnym zapewnieniu responsywności, elastyczności i ekonomii – tłumaczy Abhijit Dey, Chief Product Officer w DataCore.

Wszystko wskazuje na to, że rosnąca dynamika danych przyczyni się do dalszej popularyzacji pamięci obiektowej, zaprojektowanej z myślą o skalowaniu dużych rozproszonych systemów danych. Tym bardziej, że standardowe systemy plików na tym polu wyraźnie ustępują obiektom.

– W 2024 roku wzrośnie popularność rozproszonych systemów software defined storage, a zwłaszcza macierzy obiektowych. Wynika to z drastycznego wzrostu ilości danych nieustrukturyzowanych i rosnącej popularności zastosowań sztucznej inteligencji, uczenia maszynowego oraz analizy wielkich zbiorów danych – prognozuje Piotr Drąg, Storage Category & Data Services Business Development Manager w HPE.

Z kolei zdaniem specjalistów z Dell Technologies priorytetem na rynku pamięci masowych pozostanie bezpieczeństwo danych. Klienci korporacyjni będą oczekiwać od rozwiązań zaawansowanych funkcji zabezpieczeń, które pomogą w ochronie przed cyberatakami i będą wspierać zachowanie ciągłości operacyjnej.