W IV kw. 2025 r. przychody firm neocloud zwiększyły się o 223 proc. rok do roku, do 9 mld dol. W całym 2025 r. przekroczyły 25 mld dol. – ustaliło Synergy Research Group. W takim tempie w 2031 r. wydatki zbliżą się do 400 mld dol. Oznacza to średni wzrost o 58 proc. co roku (CAGR). Tym niemniej w październiku ub.r. przewidywano dynamikę 69 proc. CAGR do 2030 r., czyli tempo wzrostu stopniowo będzie spadać.

Według analityków przychody neocloudów rosną w niespotykanym dotąd tempie, napędzane popytem na infrastrukturę AI. Ich ekspansji sprzyjają ograniczenia podaży u tradycyjnych dostawców chmury, ponieważ popyt na moc obliczeniową przyspieszaną przez GPU nadal przewyższa możliwości hiperskalerów. W rezultacie dostawcy neochmur zdobywają coraz większy udział w najszybciej rozwijających się segmentach rynku cloud. Zasadniczo zmienia to dynamikę konkurencji w infrastrukturze AI. Neocloudy to jednak nadal niewielka część rynku. Wydatki przedsiębiorstw na usługi infrastruktury chmurowej w IV kw. 2025 r. sięgnęły w sumie 119,1 mld dol. – według Synergy.

Neocloudy wyłaniają się więc jako szybko rosnąca kategoria infrastruktury chmurowej, stworzona specjalnie dla zapewnienia wysokowydajnych obliczeń GPU dla AI. Dostawcy ci koncentrują się na usługach, takich jak GPU-as-a-Service (GPUaaS), generatywnych platformach AI i centrach danych o wysokiej gęstości. Są to takie firmy, jak CoreWeave, Crusoe, Core Scientific, Lambda, Nebius, Nscale.

Wśród nich CoreWeave zdaniem Synergy wyróżnia się jako najbardziej bezpośredni rywal tradycyjnych dostawców chmury hiperskalowej.

Tymczasem OpenAI i Anthropic reprezentują odrębną, ale coraz ważniejszą kategorię – twierdzi Synergy. Określa ich jako dostawców platformowych, oferujących dostęp do modeli fundamentalnych i środowisk programistycznych AI na poziomie chmury. Razem ci gracze zmieniają granicę konkurencyjną między infrastrukturą a platformą w ekosystemie chmurowym.

Neocloudy alternatywą dla wielkiej chmurowej trójki

Lista nowych graczy wydłuża się. Koncentracja neocloudów na obliczeniach akcelerowanych przez GPU umożliwia według analityków większą gęstość wydajności, krótsze cykle wdrożeń i efektywniejsze skalowanie obciążeń AI. Wraz ze wzrostem zapotrzebowania na infrastrukturę AI, firmy te stają się alternatywą dla tradycyjnych dostawców hiperskalowych, w tym liderów (Amazon, Microsoft, Google).

„Obserwujemy nie tylko pojawienie się nowej klasy dostawców chmury, ale także głębszą reorganizację strukturalną samej architektury obliczeniowej” – komentuje Jeremy Duke, założyciel i główny analityk Synergy Research Group.