Jeszcze
pod koniec lat 90. XX w., gdy sieci komputerowe zaczynały być dobrem
powszechnym, zawyrokowano (zrobił to David S. Isenberg z AT&T
Labs Research), że powinny być one „głupie”, przenosząc tylko bity
z punktu A do punktu B i nie robiąc niczego ponad to. Dziś już
wiadomo, że od strony technicznej ta „bezrozumna” sieć powinna mieć dużo
zaszytej inteligencji, by z jednej strony do minimum ograniczyć czynności
potrzebne do jej używania i zarządzania, a z drugiej – do
maksimum zwiększyć jej wydajność i funkcjonalność. Budującym sieci nie
ubywa przez to dylematów.

 

Zamknięty system zamiast otwartych pudełek?

Idea budowania świetnego systemu z najlepszych
w swojej klasie dostępnych na rynku elementów (best-of-breed) jest bardzo
atrakcyjna. Taka sieć powinna oferować niezrównaną wydajność
i funkcjonalność. Co jednak, gdy większymi walorami charakteryzował się
będzie system zbudowany z może nie najlepszych na świecie, ale świetnie
pasujących do siebie kawałków? A jeśli rację mają ci, którzy twierdzą, że
najwięcej korzyści przyniesie użycie rozwiązań jednego producenta (bo przecież
to one muszą się najlepiej integrować)?

Przez lata mamy od czynienia z hegemonią dostawcy
z kompletną ofertą do budowy sieci. Ostatecznie także najgroźniejsza
konkurencja firmy Cisco zdaje się swoją strategią przyznawać rację ofercie jak
najszerszej, a nie tej węższej, za to bardziej wyspecjalizowanej. Takie
firmy, jak Juniper, HP czy Huawei, przez ostatnie lata systematycznie
uzupełniały luki w swoim portfolio produktów sieciowych.

Co więcej, także zmiany technologiczne wydają się ostatnio
promować strategię ograniczania liczby dostawców. Chociaż sieci są oparte na
powszechnie stosowanych standardach, co przemawia za łatwością integrowania
różnych produktów, to nowe trendy zaciemniają obraz. Wśród nich jest koncepcja
sieci sterowanych programowo (SDN – Software Defined Networks)
i związany z nią model network fabric (skalowalne, bardzo szybkie
i inteligentne przełączanie ruchu), które są odpowiedzią na potrzeby
zwirtualizowanych serwerów i pamięci masowych. Chociaż architektury te
powstawały z myślą o stworzeniu otwartego środowiska, które będzie
niezależne od producenta (vendor-neutral), to w praktyce są realizowane
przy użyciu mniej lub bardziej zamkniętych firmowych rozwiązań, co nie sprzyja
współfunkcjonalności produktów różnych dostawców. Poza tym sieć w nowym
centrum danych jest coraz bardziej skonsolidowana z resztą infrastruktury.
Może to oznaczać, że integratorowi coraz trudniej będzie dowolnie dobierać
elementy sieci i centrum danych od różnych dostawców. Czy teraz będzie to
już robić systemowo – od konkretnego dostawcy?

 
Sezamie, otwórz się, żeby było łatwiej i bezpieczniej

Z twierdzeniem, że popularyzacja wirtualizacji prowadzi do
trendu powstawania technologii zamkniętych, zgadza się Piotr Głaska, Senior
Product Manager w polskim oddziale Huawei. Jednak jego zdaniem
w dobie Internetu i łączenia wszystkiego z wszystkim powrót do
znanej sprzed lat sytuacji, gdy całe rozwiązanie musiało pochodzić od jednego
producenta, jest niemożliwy. Prędzej czy później klienci wymuszą na dostawcach
otwartość rozwiązań.

W systemowym budowaniu sieci nic złego nie widzi
natomiast Maciej Flak, Product Sales Specialist w Cisco Systems, zwracając
uwagę, że przez wytwórców rozwiązań jest ono nazywane podejściem
architektonicznym. Ekspert Cisco nie wątpi, że to kierunek, w którym
podąża rynek, i tylko takie rozwiązanie jest w stanie zapewnić
ciągłość oraz spójność działania usług sieciowych od końca do końca, czyli od
urządzania końcowego do miejsca, w którym jest hostowana aplikacja
w formie maszyny wirtualnej.

Przed pojawieniem się w systemie IT kompletnych
rozwiązań firmowych jednego producenta – zamiast „ponadproducenckich”
uniwersalnych standardów branżowych – przestrzega Mariusz Kochański, dyrektor
Działu Systemów Sieciowych w Veracompie. Zdecydowanie ogranicza to
możliwości negocjacji ceny przy okazji rozbudowy sieci – przez resellera
i w konsekwencji użytkownika końcowego, dla którego wybór rozwiązania
najlepszego w swojej klasie ma uzasadnienie biznesowe. Wytwórca
koncentrujący się na danej grupie rozwiązań musi być bowiem naprawdę
konkurencyjny, a jego rozwiązania muszą być innowacyjne, gdyż nie jest
w stanie kompensować przychodów utraconych w przypadku jednej grupy
rozwiązań innymi. Te firmy, które oferują szeroki wachlarz rozwiązań, jeśli
chcą osiągnąć sukces, potrzebują bardzo szerokiego kanału sprzedaży. To
sprawia, że po pewnym czasie ich partnerom trudno wyróżnić się na rynku, nie są
unikatowi, a to zawsze kończy się erozją marży.

 

Sieć w firmie czy w chmurze?

Wszechobecny, odmieniany przez wszystkie przypadki cloud
computing nie ominął sieci komputerowych. Można się teraz zastanawiać,
w jakim stopniu chmura prywatna i sieci „as a service” zmienią
krajobraz LAN. Czy firmowa sieć w chmurze to nieodległa wizja,
a integrator zamiast fizycznie ją budować, powinien przygotować się do
sprzedawania tego typu usług?




Maciej Flak

 

Product Sales Specialist w Cisco Systems

Tylko podejście architektoniczne jest w stanie zapewnić
ciągłość i spójność działania usług sieciowych od końca do końca, czyli od
urządzania końcowego do miejsca, w którym jest hostowana aplikacja
w formie maszyny wirtualnej.

 

 

W opinii Piotra Głaski w centrach danych małych
i średnich przedsiębiorstw chmura prywatna nie wprowadza aż tak wielkich
zmian, bo te bardziej dotyczą infrastruktury dostawców usług w chmurze.
W małych i średnich firmach większą zmianę pociąga za sobą
przeniesienie części lub wszystkich usług na zewnątrz firmy, gdyż wtedy zmaleje
znaczenie własnego centrum danych.

– Dopóki jednak firma będzie
udostępniać swoim pracownikom pomieszczenia biurowe, sama sieć lokalna
pozostanie niezmieniona –
twierdzi przedstawiciel Huawei.

Zupełnie innego zdania jest Maciej Flak, dowodzący, że
„firmowa sieć w chmurze” to nie wizja przyszłości, tylko coś dostępnego tu
i teraz (także w Polsce), właśnie dla małych i średnich
przedsiębiorstw. Jako przykład podaje rozwiązanie firmy Meraki w ofercie
Cisco. Umożliwia ono zbudowanie sieci LAN, WLAN oraz sieci VPN na bazie
Internetu, łączącego kilka, kilkanaście czy kilkadziesiąt oddziałów firmy
w taki sposób, że wszystkie urządzenia fizyczne zainstalowane
w placówkach, np. punkty dostępu radiowego, przełączniki oraz urządzenia
bezpieczeństwa, są administrowane, konfigurowane oraz monitorowane przy użyciu
jednego interfejsu zarządzającego. A interfejs ten jest dostępny
w chmurze jako usługa abonamentowa.

Zgoda panuje co do tego,
że minie jeszcze trochę lat, zanim cloud stanie się dominującym modelem IT.
Podstawowym wymogiem tego jest, by szybkość pracy i niezawodność Internetu
osiągnęła poziom porównywalny z osiąganym w przypadku sieci LAN, co
dla wielu lokalizacji stanowi ciągle odległą wizję. Do tego przeniesienie do
chmury dużej liczby aplikacji i rozwiązań, które zostały wdrożone
w tradycyjnym modelu, wcale nie jest ani tanie, ani szybkie. Nie brakuje
wątpliwości co do kwestii bezpieczeństwa infrastruktury czy fizycznej
lokalizacji danych osobowych. Ale są też inne.

– Czy w razie drastycznego wzrostu kosztów, będącego
np. wynikiem fuzji dostawcy z innym konkurencyjnym podmiotem,
przeniesienie usługi do innego dostawcy chmury będzie szybkie i tanie?

– zastanawia się Mariusz Kochański.




Mariusz Kochański

 

dyrektor Działu Systemów Sieciowych w Veracompie

Czy unifikacja rozwiązań przez wybór jednego producenta jest
korzystna dla użytkownika końcowego czy integratora? W praktyce okazuje
się, że taki model nie sprawdza się, jeśli chodzi o bezpieczeństwo.