Sprzedaż AWS w III kw. 2023 r. wzrosła o 12 proc. rok do roku, do 23,1 mld dol. To dynamika taka sama co w poprzednim kwartale (+12 proc., 22,1 mld dol.), co oznacza koniec spadków w ujęciu kwartał do kwartału. AWS zwiększyło przychody o 919 mln dol. kw/kw. Natomiast zysk operacyjny poprawił się o 30 proc. r/r, do 7 mld dol.

Klienci przechodzą ze stawek godzinowych na dłuższe umowy

CEO Amazona Andy Jassy przyznaje, że klienci nadal ostrożnie podchodzą do wydatków. Spodziewa się natomiast, że z korzyścią dla partnerów wznowią projekty migracji obciążeń lokalnych do chmury, które utknęły w 2023 r.

Według raportu CRN 2023 Channel Chiefs, AWS ma około 100 tys. partnerów handlowych na świecie, a jego główny rywal w chmurze, Microsoft, ok. 400 tys.

Powody do optymizmu daje m.in. to, że AWS odnotował w III kw. br. mniej optymalizacji kosztowych po stronie klientów. Jedna z nich polega na tym, iż klienci przeszli ze stawek godzinowych na żądanie za znaczną częścią swoich zadań na zobowiązania roczne lub trzyletnie, zwane przez AWS „planami oszczędnościowymi”.

90 proc. wydatków na IT nadal poza chmurą
Jak mówi Andy Jassy, ok. 90 procent światowych wydatków na IT nadal idzie na rozwiązania lokalne, co jego zdaniem pokazuje szansę, jaką daje chmura. „Myślę, że to równanie odwróci się za 10 lat” – uważa szef Amazona.

Firmy ruszą z projektami AI

Ponadto w ciągu najbliższych kilku lat zdaniem CEO klienci będą tworzyć prototypy generatywnej AI i wdrażać je do produkcji.

Szansę związaną z generatywną AI CEO ocenia na „dziesiątki miliardów dolarów przychodów AWS w ciągu najbliższych kilku lat”. Nie podał natomiast, jakie są to liczby obecnie. „Jest to już dość znaczący biznes” – zapewnia. – „Jesteśmy zaskoczeni tempem rozwoju generatywnej sztucznej inteligencji”.

AI może kosztować więcej niż oczekiwano

Według niego wiele firm tworzy już prototypy, natomiast wciąż zastanawia się, co z generatywnej AI zastosować przy produkcji na dużą skalę.

Niektórzy klienci stwierdzają, po przeszkoleniu modeli, przetestowaniu ich i podłączeniu do aplikacji, że wynik końcowy może być droższy niż oczekiwano, a użycie dużych modeli może powodować duże opóźnienia w odpowiedziach.

AWS postrzega możliwości sztucznej inteligencji w trzech warstwach. Najniższa to moc obliczeniowa potrzebna do trenowania LLM (large language model) oraz tworzenia wniosków i prognoz. Warstwa środkowa to LLM jako usługa. A górną warstwę stanowią aplikacje na LLM.