Sieć komputerowa jest często traktowana jak każdy inny system dostarczający media. Najlepiej, jak działa bez żadnych awarii, a wtedy staje się dla użytkowników… niewidzialna. Jaką sieć powinien budować integrator, by jej użytkownik miał taki luksus, że niemal zapomni o jej istnieniu?

 

Sieć tak dobra, jakby jej nie było

Sieć powinna stanowić prosty w administracji, bezpieczny system, który jest w stanie zapewniać różne metody dostępu użytkowników (np. sieć przewodowa, bezprzewodowa i dostęp zdalny VPN) oraz obsługiwać różne typy ruchu w sposób jak najbardziej przejrzysty, niewidoczny i ujednolicony dla użytkowników. Gdy cała polityka bezpieczeństwa sieci jest wspólna i spójna dla wszystkich urządzeń ją tworzących, niezależnie od tego, czy jest to przełącznik sieci LAN, kontroler sieci WLAN czy też koncentrator tunelu VPN, to administrator może zapomnieć o szczegółach implementacyjnych sieci i zastosowanych w niej urządzeniach.

Jeśli chodzi o działanie sieci, to przede wszystkim musi ona zapewniać transmisję danych na wymaganym poziomie. Przepustowość musi być na tyle duża, aby przenosić bez opóźnień wszystkie usługi, w tym backup i transmisje wideo. Równie ważna jest jakość transmisji, bowiem wnoszone przez sieć opóźnienie powinno być nieistotne dla użytkowanych aplikacji oraz stałe w czasie (brak tzw. jittera), a poziomy przekłamań czy gubienia pakietów powinny być na tyle niskie, aby aplikacje (zwłaszcza te multimedialne, wykorzystujące usługę UDP), mogły płynnie działać.

Dobrze utrzymywana sieć powinna być zabezpieczona pod wieloma względami: gwarancyjnym, wsparcia technicznego i odporności na awarie. Ponieważ sieci nie kupuje się na chwilę, to klienta przekonają te oferty, które nie budzą obaw dotyczących bezawaryjnego działania systemu. Przy wyborze urządzeń sieciowych ważna jest więc nie tylko cena, ale i gwarancja jakości działania. Istotne, by sieć zapewniała też mechanizmy minimalizujące ryzyko jej niedostępności w razie awarii któregoś z elementów. Najlepiej, gdy działają w ten sposób, że nie będzie wymagana interwencja administratora.

Według Macieja Kaczmarka, VAR Account Managera w polskim oddziale Netgeara, ważnym aspektem w tym względzie jest budowa infrastruktury backupowej, co oznacza, że kluczowe elementy sieci mają swoje elementy zapasowe gwarantujące ciągłość pracy.

– Infrastruktura dzięki obecnej technologii, przy niewielkim nakładzie dodatkowych środków, daje pełne bezpieczeństwo i luksus „niewidzialności”, a elementy wrażliwe wymieniane są w czasie pracy urządzenia bez przerw w działaniu sieci – mówi.

 

Piotr Głaska

 

Senior Product Manager, Huawei

Słuchając większości producentów, można dojść do wniosku, że główne trendy na rynku sieci komputerowych to obecnie chmura, SDN czy BYOD. Tymczasem działy IT po prostu inwestują w rozwiązania od różnych dostawców, dywersyfikując posiadane zasoby.

 
Nowe sieciowe wyzwania

Rozwój sieci komputerowych przez ostatnie lata był w pewnym zastoju. Jednak
bardzo dużo dzieje się obecnie, gdy centra danych i znajdujące się w nich serwery oraz pamięci masowe są poddawane wirtualizacji, pojawiła się chmura obliczeniowa, wyzwania związane z mobilnością i konsumeryzacją IT (trend Bring Your Own Device).

Dzisiaj budując sieci, trzeba mieć świadomość trendów, które wynikają ze zmian zachowań użytkowników końcowych i sposobów dostarczania informacji. Tym, co kształtuje obecnie rynek sieci klasy enterprise, jest mobilność urządzeń, wykorzystanie aplikacji w modelu cloud, potrzeba obsługi dużej ilości ruchu wideo oraz zapewnienia bardzo wysokiego poziomu bezpieczeństwa rozwiązań sieciowych przy zachowaniu wysokiej produktywności działów IT. Wyzwaniem jest też coraz większe natężenie przesyłu danych multimedialnych.

W wyścigu o klienta głównym kryterium do tej pory były podstawowe atrybuty sieci, jak przepustowość, dostępność i jakość transmisji. Teraz, gdy z zasobów udostępnianych przez sieć korzystają także podmioty zewnętrzne, jak też dane często są przesyłane poza siedzibę firmy, rosną wymogi dotyczące bezpieczeństwa. Zwiększone zapotrzebowanie na zdalny backup czy wideokonferencje stawiają przed mechanizmami bezpieczeństwa sieci nowe wyzwania – muszą one pracować w czasie rzeczywistym i w tempie adekwatnym do prędkości świadczonych usług.

– W dobie powszechnego outsourcingu następuje wzrost zainteresowania klientów szybkością konfiguracji sieci, zwłaszcza replikacji stworzonego środowiska pracy (tzw. provisioningu) oraz monitoringiem jakości świadczonych usług – zauważa Mariusz Kochański, dyrektor Działu Systemów Sieciowych w Veracompie.

Wpływ wirtualizacji na wymagania wobec sieci jest bardzo duży. Zwirtualizowana infrastruktura jest dużo bardziej złożona od tradycyjnej i wymaga więcej pasma, lepszych narzędzi zarządzania oraz mechanizmów odporności na awarie. Te ostatnie wynikają z prostego faktu: jeśli teraz na jednym fizycznym hoście działa wiele maszyn wirtualnych, to awaria pojedynczej karty sieciowej oznacza kosztowną przerwę w działaniu znacznie większej liczby aplikacji niż kiedyś. Jednak nagroda za wysiłek zbudowania sprawnej sieci dla wirtualnego centrum danych jest niebagatelna: oszczędności wynikające z konsolidacji infrastruktury, wyjątkowa skalowalność systemu i uproszczone disaster recovery.

W odpowiedzi na potrzeby zwirtuali-zowanych środowisk powstała koncepcja sieci sterowanych programowo (SDN – Software Defined Networks) i związany z nią model network fabric (w uproszcze-niu: skalowalne, bardzo szybkie i inte-ligentne przełączanie ruchu). Chociaż model ten powstawał z myślą o stworzeniu otwartego środowiska, które będzie niezależne od producenta, to w praktyce takie sieci są tworzone przy użyciu mniej lub bardziej zamkniętych firmowych rozwiązań, co nie sprzyja współpracy w jednym środowisku produktów różnych dostawców. To w połączeniu z faktem, że sieć coraz bardziej konsoliduje się z resztą infrastruktury, może oznaczać, że integratorowi trudniej będzie dowolnie dobierać elementy sieci i centrum danych od różnych dostawców (na zasadzie „najlepszych” bądź „najtańszych” w swojej klasie produktów).

 

Mariusz Kochański

 

dyrektor Działu Systemów Sieciowych, Veracomp

Ze względu na obsługiwane aplikacje: telefonię IP, maile, systemy przyjmowania zamówień od klientów i kontroli produkcji, sieć w firmie staje się medium krytycznym dla działania biznesu. Jej niezawodność i bezpieczeństwo wpływają na wyniki finansowe firmy – wystarczy przypomnieć przypadki włamań do sieci firm Sony czy RSA.

 
Fundamentalne kable

Fundamentem działania sieci komputerowej przedsiębiorstwa wciąż pozostaje system okablowania strukturalnego. Stworzony z zachowaniem norm powinien umożliwiać bezproblemową transmisję dużych ilości danych, także multimedialnych. Często nabywca okablowania strukturalnego kupuje system z myślą nieomal o „całym życiu” swojej firmy czy instytucji (a przynajmniej o dającej się przewidzieć przyszłości). Postrzega je przez analogię do instalacji elektrycznej – raz położonej i już zawsze spełniającej swoje zadania. Czy integrator jest dziś w stanie oferować okablowanie strukturalne, które przez lata będzie w stanie podołać coraz większym wyzwaniom nowych technologii?

Odpowiedź na to pytanie nie jest prosta. Zdaniem Krzysztofa Strzody, zastępcy dyrektora handlowego w Emiterze, niemożliwe jest przewidzenie, jakie aplikacje będą używane w przyszłości lub jakie będą wymagania odnośnie do wydajności i prędkości łączy.

– Nie ma jednego wzorca przedsiębiorstwa. Nie można także wyciągać wniosków w oderwaniu od ekonomii. Gdyby tak było, to należało by od razu przyjąć, że najlepszym systemem będzie ten, który umożliwi pracę najszybszym protokołom. Tym niemniej można określić, jakie wymagania powinno spełnić okablowanie, aby pełniło także swoje funkcje za 5, 10 czy 15 lat. I nie należy mylić okresu wykorzystywania okablowania w przedsiębiorstwie z okresem gwarancyjnym – dodaje Krzysztof Strzoda.

Są rzeczy, które mają bezdyskusyjny wpływ na przedłużenie życia okablowania. Wśród specjalistów panuje pełna zgoda co do tego, że antidotum na szybkie „przeterminowanie się” systemu jest standaryzacja. Aby korzystać w przyszłości z teraz instalowanej infrastruktury, musi być ona zgodna z normami dotyczącymi okablowania strukturalnego. Powinno ono też zapewnić zgodność interfejsów, czyli wykorzystywać zestandaryzowane i powszechnie uznawane za zgodne (i dostępne) interfejsy przyłączeniowe.

 

Dominik Mikołajczak

 

kierownik ds. okablowania strukturalnego Multimedia Connect MMC, C&C Partners Telecom

Wirtualizacja serwerów powoduje, że z tego samego łącza nie korzysta już jedno urządzenie, ale kilka serwerów wirtualnych, które łącznie generują większy przypływ danych. Dlatego okablowanie musi zapewniać odpowiednią przepustowość. Uwzględniając dzisiejsze potrzeby, ale również przyszły wzrost zapotrzebowania serwerów na pasmo transmisyjne, należy dobierać okablowanie o najlepszych parametrach. W części optycznej należy stosować światłowody zapewniające transmisję do 100 Gb/s, czyli jednomodowe lub wielomodowe kategorii OM3 lub OM4. W części miedzianej najbardziej zasadne jest dobieranie okablowania spełniającego wymogi transmisji 10 Gb/s, czyli kategorii 6A, 7 lub 7A.

 

Maciej Flak

 

Product Sales Specialist, Cisco Systems

Sieć (przełączniki, routery, radiowe punkty dostępu i kontrolery) muszą „rozumieć”, jaki ruch przesyłają, i być wyposażone w mechanizmy do szybkiej diagnostyki wszelkich nieprawidłowości w działaniu aplikacji multimedialnych.

 

– Nawet okablowanie wykraczające daleko poza normy nie gwarantuje, że będzie ono stosowane w przyszłości i że znormalizowane rozwiązania (np. w zakresie sprzętu aktywnego) nie pójdą w innym kierunku – mówi Wojciech Nowaczyk, CEO w S-Cabling.

Poza tym producenci, którzy szczycą się, że oferowana przez nich infrastruktura jest dużo lepsza niż wymagają normy, każą sobie słono płacić za takie rozwiązania.

 

Okablowanie i wymagające aplikacje

XXI wiek przyniósł duże technologiczne zmiany w systemach informatycznych. Najpierw nastąpiła konwergencja sieci komputerowej i telefonicznej. W jej wyniku do danych wędrujących przez okablowanie strukturalne dołączył ciężki i wymagający ładunek transmitowanego przez protokół IP dźwięku, a następnie wideo. W ostatnich kilku latach serwerownie i centra danych opanowała wirtualizacja, dająca – najprościej mówiąc – możliwość jednoczesnego działania wielu systemów i aplikacji przy użyciu tych samych, współdzielonych zasobów sprzętowych. Wirtualizacja oznacza kolosalny wzrost ilości danych transmitowanych przez to samo okablowanie.

Centra danych są więc w fazie gwałtownego rozwoju, który przekłada się na więcej i więcej: serwerów, pamięci masowej, sieci, zasilania i chłodzenia. Żeby to wszystko było ekonomiczne, musi być maksymalnie skondensowane, a więc powstaje potrzeba skorzystania z niezawodnego okablowania. Firmy mają wybór między kablami miedzianymi a światłowodem, chociaż cały system najczęściej jest budowany w modelu hybrydowym. Światłowody, jako najszybsze połączenia, są optymalnym wyborem, gdy chodzi o szkielet sieci, komunikację z pamięcią masową oraz jedyną opcją na dystansie ponad 100 m. Na światłowody będą też stawiać użytkownicy, którzy chcą się zabezpieczyć na przyszłość, kiedy potrzebne będą łącza o szybkości 100 Gb/s.

Wybrani producenci urządzeń sieciowych i ich dystrybutorzy na polskim rynku

Alcatel-Lucent: Veracomp

Allied Telesis: Action, Konsorcjum FEN, RRC

Aruba Networks: Clico, Veracomp

Brocade: Avnet

Cisco Systems: ABC Data, Konsorcjum FEN, RRC, Tech Data

Citrix Systems: Arrow ECS, Computerlinks

D-Link: AB, ABC Data, Action, S4E, Tech Data, Veracomp

Enterasys: Versim

Extreme Networks: Veracomp

F5 Networks: Clico, Veracomp

Fortinet: Veracomp

HP: ABC Data, Tech Data, Veracomp

Huawei: S4E, Sequence

Juniper Networks: Avnet, Clico

Meru Networks: Konsorcjum FEN

Netgear: AB, ABC Data, Action, Tech Data, Veracomp

Riverbed: World IT Systems, Zycko

TP-Link: AB, ABC Data, Sunnyline, Veracomp

ZyXEL: AB, Action, eD’ system, RRC