No właśnie, przez długie lata duża grupa potencjalnych klientów była niechętna rozwiązaniom chmurowym, głównie ze względów bezpieczeństwa. Ten argument ostatnio wydaje się coraz rzadziej używany, natomiast pojawił się nowy: firmy chcą mieć zagwarantowaną możliwość łatwego przenoszenia swoich środowisk pomiędzy różnymi dostawcami usług chmurowych. Ci zaś są niechętni zbudowaniu interfejsów łączących konkurencyjne usługi. W jaki sposób reagujecie na takie obawy klientów wskazujących, że model „vendor lock-in”, obecny kiedyś w infrastrukturze sprzętowej, teraz istnieje także w chmurze?

Tomasz Stachlewski Podczas pracy z milionami klientów z całego świata spotykamy się z różnego typu strategiami wdrażania chmury i ich motywacjami. Istotne dla nas jest, aby budować usługi na wielu otwartych standardach, takich jak Linux czy Xen. Zapewniamy również narzędzia do migracji, które nie tylko umożliwiają klientom łatwe przenoszenie zasobów z lokalnego środowiska do AWS, ale także z powrotem, jeśli zostanie podjęta taka decyzja. Zastosowanie tego typu podejścia jest konieczne, aby zbudować odpowiedni poziom zaufania pomiędzy firmą, a dostawcą chmurowym. Musimy pracować w interesie naszych klientów – co godzinę, każdego dnia. I mieliśmy wielkie szczęście, że w ciągu 15 lat naszej działalności tak niewiele firm zdecydowało się nas opuścić.

W jakich aspektach zatem należy rozpatrywać zagadnienie ewentualnej migracji do innych dostawców?

Tomasz Stachlewski Przede wszystkim, istnieje grupa usług związanych z infrastrukturą IT, które można łatwo przenosić pomiędzy różnymi dostawcami, na przykład wirtualne serwery i desktopy. Jeśli tylko konkurencyjni usługodawcy korzystają z tej samej platformy firm VMware, Microsoft albo KVM, przeniesienie wirtualnej maszyny nie stanowi problemu. To jednak najprostszy przypadek. Kolejnym sposobem zagwarantowania sobie kompatybilności z innymi środowiskami jest skorzystanie ze wspomnianych już alternatywnych usług, które bazują na oprogramowaniu open source, w tym Kubernetes, Kafka czy ActiveMQ. Wówczas przeniesienie zgromadzonych w nich danych do innego usługodawcy jest stosunkowo proste, chociaż oczywiście zmieni się model zarządzania taką usługą, więc zawsze warto sprawdzić, czy ta zmiana będzie korzystna.

Pozostają więc tylko usługi, które nie mają swojego bezpośredniego odpowiednika u konkurencji…

Tomasz Stachlewski Wyzwanie to dotyczy zazwyczaj produktów, które nie mają swojego funkcjonalnego odpowiednika w ofercie konkurencji. Tym samym zresztą stanowią bardzo ciekawą opcję dla wielu firm, które szukają przewagi technicznej przy jak najkrótszym czasie wdrożenia i przy zachowaniu minimalnych kosztów. Jeśli dla danego klienta alternatywą miałaby być rezygnacja z usług chmurowych, to w takiej sytuacji może się wiązać to z utraconą szansą. Jeżeli nieustannie będzie wyznawał zasadę „boję się wejść do chmury, bo jeśli za rok okaże się, że coś mi się nie podoba, to będzie ciężko z niej wyjść”, to przez kolejny rok będzie funkcjonował we własnej serwerowni i z własnymi serwerami. Z ograniczoną możliwością korzystania ze sztucznej inteligencji, w ciągłym niedoczasie i przy coraz wyższych kosztach zatrudniania ekspertów. A cały świat w tym czasie pójdzie do przodu, będzie korzystał z nowoczesnych rozwiązań, które – chociażby ze względu na poziom skomplikowania – nie jest łatwo wdrożyć we własnej serwerowni.

Podczas konferencji re:Invent w Las Vegas AWS zaprezentował nowe modele własnych… procesorów. Do czego wykorzystywane są te układy?

Tomasz Stachlewski Ta historia sięga aż 2015 roku, gdy kupiliśmy izraelską firmę Annapurna Labs, specjalizującą się w projektowaniu procesorów. Amazon projektował własne serwery niemalże od początku, aby dostosować profil ich wydajności do własnych, specyficznych potrzeb. W pewnym momencie doszliśmy jednak do momentu, w którym zasadne było zadanie sobie pytania, czy przy naszej skali działalności w podobny sposób nie należałoby podejść także do procesorów. Podjęto wówczas decyzję o projektowaniu własnych układów scalonych, które są wykorzystywane w dużej mierze na potrzeby wewnętrzne, głównie w celu obniżenia kosztów funkcjonowania infrastruktury, ponieważ są tańsze w utrzymaniu niż ich komercyjne odpowiedniki, np. przyczyniają się do mniejszego zużycia energii elektrycznej. Dodatkowo od kilku lat zapewniamy też możliwość wykorzystywania ich przez użytkowników chmurowych maszyn wirtualnych, którzy również szukają tańszych, a często bardziej wydajnych rozwiązań niż tradycyjne procesory. Doświadczenie w tej dziedzinie pozwoliło nam obecnie projektować układy przeznaczone do zastosowania w konkretnych celach, takich jak trenowanie modeli sztucznej inteligencji czy też wykorzystywanych w projektach High-Performance Computing.

Rozmawiał Krzysztof Jakubik