Z opublikowanego kilka miesięcy temu raportu Cisco Systems wynika, że w roku 2015 do sieci będzie podłączonych ponad 15 mld urządzeń, a transmisja sieciowa osiągnie wartość 966 eksabajtów, czyli niemal jednego biliona gigabajtów. I choć do wszystkich długoterminowych prognoz dotyczących środowisk sieciowych należy podchodzić z dużą ostrożnością, to nikt nie ma wątpliwości, że najbliższe lata będą się charakteryzowały szybkim rozwojem sieci IP. Z pewnością na rynku pojawią się jeszcze bardziej wydajne urządzenia aktywne. Producenci wprowadzili już do sprzedaży produkty wyposażone w porty 10 GE i 40 GE. W niedalekiej przyszłości transmisje będą na poziomie 100 Gb/s. Co więcej, urządzenia produkowane teraz trudno nawet porównać ze sprzętem sprzed pięciu czy dziesięciu lat. Współczesne przełączniki i routery zaopatrzone w porty PoE (Power over Ethernet) stają się miniaturowymi centrami dystrybucji energii. Mają też wbudowane zaawansowane funkcje zabezpieczające.

Ciągle im mało

Nie ma wątpliwości, że od wielu lat jedno nie zmienia się na rynku urządzeń aktywnych – klienci ciągle potrzebują coraz bardziej wydajnego sprzętu. Kolejne lata nie będą inne. Widać to po działaniach producentów, którzy wyposażają urządzenia w matryce przełączające o terabitowych przepływnościach.– Są one gotowe na przetwarzanie danych z kart 100 GE – mówi Roman Sadowski, Marketing Manager w Alcatelu-Lucencie. – To kolejny krok naprzód po tym, jak w zeszłym roku wprowadziliśmy do oferty nowe karty sieciowe z interfejsami 40 GE.

Jego zdaniem w strukturze sprzedaży rośnie udział portów 10 GE, spada natomiast popyt na Fast Ethernet. Roman Sadowski tłumaczy, że wspomniany trend jest spowodowany systematycznym wzrostem liczby centrów danych i sieci rdzeniowych. Firmy wprowadzają też mechanizmy optymalizujące funkcjonowanie aplikacji i usług, na przykład takie, które rozpoznają i klasyfikują pakiety związane z konkretnymi aplikacjami, a następnie nadają im priorytety odpowiadające zapisom SLA (Service Level Argreement). Producenci dodają do routerów funkcje zabezpieczające. Norbert Ogłoziński, Channel Sales Manager w ZyXEL-u, zalicza do nich szyfrowanie WEP, WPA/WPA2, wybranych stron czy filtr adresów IP/MAC. Dodatkowym zaawansowanym zabezpieczeniem jest RADIUS.

 

Przełącznik jak elektrownia

Sprzęt  aktywny coraz częściej służy do zasilania dużej liczby urządzeń końcowych. Sposób dostarczania prądu, zarządzanie tym procesem oraz jego optymalizacja już wpływa, a w przyszłości wpłynie jeszcze bardziej na rynek urządzeń przełączających. Maciej Flak, architekt systemowy w Cisco Systems, uważa, że gdy przełącznik spełnia funkcję zasilacza, wtedy ważnym zagadnieniem staje się niezawodne dostarczenie prądu do samego przełącznika. Jednym z rozwiązań jest zastosowanie w urządzeniach zdublowanych zasilaczy, co okazuje się skuteczne, ale drogie. – Alternatywą jest rozprowadzanie energii elektrycznej między switchami dostępowymi pracującymi w stosie – twierdzi. – Umożliwia to optymalizację dystrybucji mocy, aby w razie awarii zasilacza w jednym z przełączników tworzących stos można było wykorzystać nadmiar mocy zasilaczy zainstalowanych w innych przełącznikach.

 

Maciej Flak dodaje, że wzrost popytu na urządzenia wyposażone w porty PoE wynika w dużej mierze z ciągłej transformacji sieci telekomunikacyjnych, w których systemy analogowe pomału ustępują telefonii IP. Nie bez znaczenia jest też rosnąca popularność wideotelefonów IP oraz prężny rozwój rynku sieci bezprzewodowych WLAN. – Rodzi się trend polegający na doprowadzaniu coraz większych porcji energii do pojedynczego portu – tłumaczy. – Rozpowszechniają się też produkty zgodne ze standardem PoE+, czyli IEEE 802.3 at.
Podobnego zdania jest Daniel Żukowski, Networking Business Unit Manager w Konsorcjum FEN, który dodaje, że zasilaniu za pośrednictwem portów ethernetowych towarzyszą znacznie obniżone koszty okablowania i instalacji. – Bardzo często klienci, którzy niedawno inwestowali w nowe przełączniki, kupują od nas panele PoE, umożliwiające modernizację przełącznika w taki sposób, aby mógł dostarczać energię do urządzeń końcowych – mówi.

 

Jesteśmy na wizji

Według wspomnianego we wstępie raportu Cisco jednym z najważniejszych czynników powodujących zwiększenie ruchu IP będzie zwielokrotnienie transmisji wideo. Za trzy lata liczba widzów oglądających filmy on-line ma osiągnąć wartość 1,5 mld. W 2015 r. w każdej sekundzie przez Internet będzie przepływać 1 mln minut materiału wideo. Analiza Cisco dotyczy też kwestii biznesowych. I tak na przykład w Europie Środkowo-Wschodniej wartości określające transmisję pakietów IP związaną z wideokonferencjami biznesowymi w latach 2010–2015 mają wzrosnąć dwukrotnie. Nasi dystrybutorzy też nie mają wątpliwości, że liczby ilustrujące transmisję różnego rodzaju plików wideo będą rosły. Daniel Żukowski uważa, że za opisany wzrost w sieci IP będą odpowiedzialne także sieci monitoringu wizyjnego. – Jeszcze półtora roku temu kamera 1,3 Mpix była de facto standardem w projektach sieci monitorujących, i to w instalacjach lepszej jakości – twierdzi. – Teraz sytuacja się zmieniła, ceny spadły, dlatego można zaproponować klientom kamery o rozdzielczości 4 Mpix, i to w dobrej w cenie. Lepsza kamera to obraz wyższej jakości. Oznacza to także mniejszą liczbę potrzebnych kamer, bo sprzęt 4 Mpix umożliwia monitorowanie bardziej rozległego obszaru.

Również Mariusz Kochański, dyrektor Działu Systemów Sieciowych i członek zarządu Veracompu, podkreśla, że znaczenie wideo IP jako medium komunikacyjnego w polskich firmach będzie coraz większe. Systemy tego typu będą coraz częściej wykorzystywane do kontaktów z klientami, dostawcami i pracownikami, na przykład podczas szkolenia. – Konieczność zapewnienia kanałów komunikacyjnych w sieci WAN o wysokiej jakości usług będzie wymagała od administratora wiedzy o tym, którzy użytkownicy i jakie protokoły obciążają pasmo – mówi Mariusz Kochański.

Dostawcy podkreślają też, że firmy decydują się na kupno zarządzalnych przełączników wyposażonych w mechanizmy QoS, round robin czy IGMP po to, aby skutecznie zarządzać pasmem wewnątrz swojej sieci. Jak mówi Maciej Flak, chęć łączenia  konferencji głosowych i wideo z wykorzystaniem routera wynika z tego, że firmy nie zawsze chcą inwestować w wyspecjalizowane mostki, np. audio- lub wideokonferencyjne. Zwłaszcza w oddziałach. – Dla przedsiębiorców liczy się prostota i bogactwo funkcji, a tę właśnie zapewniają wielousługowe routery IP – tłumaczy przedstawiciel Cisco Systems.

 

Chmura na wirtualnym firmamencie

Roman Sadowski zauważa, że rosnące zainteresowanie rozwiązaniami w chmurze pociąga za sobą nacisk na wirtualizację własnych zasobów sieciowych oraz zapewnienie możliwości przenoszenia aplikacji między fizycznymi platformami bez konieczności rekonfiguracji urządzeń sieciowych. Z kolei Maciej Domaszewski, Business Unit Manager Avaya w RRC, zwraca uwagę, że niektórzy producenci oferują klientom odpowiednie środowisko wirtualizacyjne (VENA w przypadku Avayi) przeznaczone do Data Center oraz dużych rozwiązań korporacyjnych. Także Marcin Ścieślicki, architekt rozwiązań sieciowych w HP, mówi o dużym zainteresowaniu wirtualizacją. – Kluczowe znaczenie mają dynamiczne polityki dostępu dla poszczególnych produktów, uproszczenie sieci poprzez zredukowanie liczby urządzeń, wyeliminowanie połączeń nieaktywnych za pomocą technik klastrowania przełączników, jak IRF, Trill czy OpenFlow – twierdzi Marcin Ścieślicki.

Maciej Flak dodaje, że na rozwój rynku urządzeń aktywnych wpływa konsolidacja i wirtualizacja centrów przetwarzania danych. Odczuwają to zwłaszcza producenci przełączników wyposażonych w porty 10 GE, przystosowanych do działania w tego typu ośrodkach. Modele serwerów zaopatrzone w wiele interfejsów 1 GE są zastępowane urządzeniami o mniejszej liczbie portów 10 GE. – Jednocześnie widać zainteresowanie rozwiązaniami, w których jeden interfejs 10 GE używany jest do przesyłania zarówno ruchu Ethernet, jak i Fibre Channel – mówi Maciej Flak. – To względnie prosty i tani sposób transmisji. Na wzrost popytu na porty 10 GE ma również wpływ powszechne stosowanie w sieciach kampusowych zwielokrotnionych połączeń 10 GE między przełącznikami tworzącymi warstwę rdzenia, dystrybucji i dostępu.

Jego zdaniem wirtualizacja stacji roboczych także oddziaływuje ożywczo na rynek przełączników. Przedsiębiorstwa decydujące się na zaadaptowanie rozwiązań do wirtualizacji zwracają uwagę na niezawodność, wydajność oraz łatwość utrzymania sieci LAN, gdyż każda przerwa w jej pracy odbija się w takim środowisku na produktywności zatrudnionych, zwłaszcza gdy pracują oni przy zdalnych stacjach roboczych.

 
Światłowodowa epopeja

Daniel Żukowski przekonuje również, że na rynek urządzeń aktywnych silnie oddziałują spadki cen światłowodów. Sieci optyczne są dziś znacznie bardziej popularne niż jeszcze kilka lat temu. ISP coraz częściej doprowadzają światłowody aż do serwerowni; zdarza się, że w samej sieci firmowej są zainstalowane kable optyczne. Bardzo wiele zarządzalnych przełączników dostępnych na rynku ma wbudowane porty dostosowane do wkładek SFP, dzięki którym klient nie musi inwestować w dodatkowe urządzenia, czyli mediakonwertery. – Rośnie popyt na wysokiej jakości wkładki, zwłaszcza na zamienniki wkładek znanych producentów – mówi menedżer z Konsorcjum FEN. – Produkty alternatywne do modułów z logo Cisco Systems, HP czy Allied Telesisa sprzedają się bardzo dobrze. Ceny urządzeń zastępczych są kilkanaście, a czasem nawet kilkadziesiąt razy niższe niż uznanych marek. Pięcioletnia gwarancja jest dłuższa niż oferowana przez topowych producentów.

Co więcej, spadek cen światłowodowych łączy operatorskich powoduje, że wielu klientów decyduje się na kilka łączy od różnych dostawców w celu zwiększenia bezpieczeństwa. Do przetwarzania transmisji z takich nadmiarowych linii potrzebne są oczywiście wydajne routery. – Niektóre, wyposażone w dwa procesory, pozwalają analizować ruch w sieci nawet do siódmej warstwy – dodaje Daniel Żukowski.

 

Bezprzewodowy zawrót głowy

 

W 2010 r. komputery PC były źródłem 97 proc. ruchu internetowego generowanego przez użytkowników indywidualnych. Według cytowanego raportu Cisco wskaźnik ten spadnie w 2015 r. do poziomu 87 proc. Ma to dowodzić wpływu, jaki tablety i smartfony wywrą na sposób dostępu i korzystania z Internetu przez użytkowników. Ogólnoświatowy ruch internetowy związany z przesyłaniem danych w sieciach telefonii komórkowej w latach 2010 – 2015 nasili się 26-krotnie. Mariusz Kochański uważa, że rosnąca popularność iPada, również w Polsce, dobrze wróży rozwojowi wydajnych, skalowalnych i bezpiecznych sieci WLAN. – Administratorzy, zwłaszcza sieci uczelnianych, zdają sobie już sprawę, że w przypadku masowego użytkownika sieć bezprzewodowa nie może być tylko prostym systemem nakładkowym na istniejący LAN – mówi.

Maciej Flak jest zdania, że powszechny dostęp do urządzeń zgodnych ze standardem WLAN 802.11n stymuluje rynek przełączników, gdyż muszą one przesyłać więcej danych, a także być wyposażone w porty dostępowe w standardzie 1 GE, aby w pełni wykorzystać możliwości standardu 802.11n. Natomiast Maciej Domaszewski mówi, że przyszłość stanowią przełączniki o dużej efektywności, które są zgodne ze standardami obowiązującymi w telefonii VoIP, a także zwiększające wydajność sieci bezprzewodowych Wi-Fi.

 

Sieciowe IQ

W sieci lokalnej funkcjonuje wiele typów urządzeń końcowych: stacji roboczych, kamer, terminali wideo, telefonów IP, punktów dostępu radiowego. W praktyce oznacza to, że różne porty przełącznika muszą być w różny sposób skonfigurowane. Współczesne przełączniki stają się więc urządzeniami nie tylko coraz bardziej wydajnymi, ale również inteligentnymi. Stwierdzenie to odnosi się między innymi do wykrywania podłączonych urządzeń i autokonfiguracji portów. Producenci oferują mechanizmy, które upraszczają proces uruchamiania i konfiguracji sieci, a w czasie jej eksploatacji dbają o obniżanie kosztów związanych z utrzymaniem infrastruktury oraz dokonywaniem zmian. Coraz szerszy strumień wideo przesyłany w sieciach LAN wymaga, aby przełączniki były wyposażone w narzędzia do monitorowania wydajności urządzenia oraz diagnostyki sieci.

Daje się też zauważyć tendencję polegającą na uproszczaniu tradycyjnego modelu sieciowego – skutkuje ona eliminacją warstwy agregacyjnej. Zdaniem Romana Sadowskiego stało się to możliwe przede wszystkim dzięki pojawieniu się urządzeń, których wydajność i duża liczba portów pozwalają na integrację warstwy rdzeniowej i agregacyjnej. Poza tym producenci starają się oferować rozwiązania, które zapewniają ciągłość pracy sieci na wielu poziomach: począwszy od poprawy bezawaryjności każdego przełącznika i jego newralgicznych modułów poprzez redundancję elementów sieciowych aż po wprowadzanie nowych mechanizmów przywracania działania po awarii. – Jesteśmy obecnie w przełomowym momencie odchodzenia od używanego od wielu lat mechanizmu Spanning Tree na rzecz Shortest Path Bridging – mówi przedstawiciel Alcatela-Lucenta. – SPB, czyli 802.1aq, pomału staje się standardem.

Administratorzy środowisk LAN coraz częściej wymagają, aby opóźnienia w ich sieciach były możliwie najkrótsze. Jest to oczywiście związane z przesyłaniem coraz większej liczby plików multimedialnych oraz wzrostem znaczenia systemów transakcji elektronicznych. Środkiem do osiągnięcia celu są dwie nowe architektury: POD i Mesh. – W przypadku POD poszczególne urządzenia utrzymują między sobą aktywne połączenia, dzięki czemu podłączone do nich przełączniki mogą się komunikować bezpośrednio ze sobą – tłumaczy Roman Sadowski. – W rezultacie opóźnienia w takiej architekturze spadają do poziomu 2 ms. Mesh z kolei umożliwia łączenie POD-ów z przełącznikami rdzeniowymi.

 
W czasach kryzysu

Niewątpliwie utrzymanie nowoczesnej oraz zgodnej ze standardami i protokołami sieci wymaga nakładów finansowych. Jednak kryzys wymusza oszczędności także w przypadku inwestowania w sprzęt sieciowy. – Wydatków na ten cel nie należy jednak ograniczać za wszelką cenę – przekonuje Grzegorz Całun, Pre-Sales Engineer w polskim oddziale D-Linka. – Może się zdarzyć, że tanie produkty będą częściej ulegały awariom niż rozwiązania droższe. A to pociągnie za sobą większe wydatki na naprawy i konserwację sieci.

Zdaniem Mariusza Kochańskiego duże firmy zaczynają zwracać uwagę na koszty operacyjne (OPEX) ponoszone w kolejnych latach prowadzenia projektu. Coraz większa liczba przedsiębiorców zdaje sobie sprawę, że wydatki związane z aktualizacją oprogramowania, serwisem, przedłużeniem gwarancji stanowią znaczną część początkowych kosztów inwestycyjnych, czyli CAPEX. – Badanie wielkości i zależności pomiędzy CAPEX a OPEX wygląda szczególnie ciekawie, kiedy analizujemy konkurencję między HP i Cisco na rynku przełączników – twierdzi przedstawiciel Veracompu. – HP ma w tej dziedzinie dość skuteczną strategię. Współczynnik CAPEX jest nieco niższy niż w przypadku Cisco, natomiast OPEX jest dużo niższy.

Mariusz Kochański twierdzi też, że duzi klienci, także z rynku publicznego, będą dążyli do cięcia kosztów poprzez konsolidację zasobów IT, a nawet outsourcing. – Ten trend będzie owocował budową regionalnych, wydajnych centrów danych, w których główną metodą dostępu będzie Metro Ethernet – mówi.

 

Pożądana różnorodność

Firmy inwestują więc w nowe urządzenia. Rzecz jasna uwzględniają całkowity koszt posiadania sieci. Składają się na niego nie tylko wydatki na urządzenia, ale także sumy wydane na zarządzanie nimi, ewentualne interwencje serwisu, energię elektryczną zużywaną na zasilanie i chłodzenie infrastruktury sieciowej. Przewlekły kryzys finansowy, który od 2008 r. daje się przedsiębiorcom we znaki, powoduje, że firmy coraz bardziej niechętnie kupują struktury jednorodne. – Systematycznie zyskuje na znaczeniu podejście polegające na budowaniu infrastruktury sieciowej z wykorzystaniem produktów różnych producentów – mówi Roman Sadowski. – Zasadności ekonomicznej takiego rozwiązania dowiódł zresztą jeden z raportów Gartnera.

Także Mariusz Kochański twierdzi, że wielu klientów końcowych zdało sobie wreszcie sprawę, iż utrzymywanie homogenicznej infrastruktury, czyli sieci złożonej z przełączników, routerów i różnego rodzaju zabezpieczeń pochodzących od tego samego dostawcy, nie zawsze jest optymalne. Ma wprawdzie zaletę, jaką jest łatwość zarządzania, ale ma też ukrytą wadę. – Kupując produkty jednej marki, firma jakby sama rezygnuje z dobrodziejstw płynących z wolnej konkurencji – mówi Kochański. – Powoduje to, że dostawca sprzętu do budowy sieci LAN, z którego urządzeń korzysta firma, nigdy nie obniży ceny, bo nie widzi takiej potrzeby. Właściwie to nawet trudno się temu dziwić. Dlaczego miałby to robić, skoro klient i tak decyduje się na homogeniczne rozwiązania? Klienci końcowi uświadomili sobie to w czasie trudnego budżetowo 2009 roku. Teraz coraz częściej decydują się na rozwiązania heterogeniczne, łączące w obszarze LAN, WLAN i trasowania produkty, których stosunek ceny do funkcjonalności jest najkorzystniejszy.

PIOTR GAJOWNICZEK

Customer Solutions Architect w polskim oddziale Alcatela-Lucenta

Rozwój usług IP w sieciach stacjonarnych, mobilnych i w chmurze skutkuje tym, że skalowanie routera staje się bardzo ważną cechą. Oznacza to stosowanie interfejsów 40 GE, 100 G oraz ich integrację z systemami transportu optycznego. Równie ważny jest jednak efektywny routing usługowy: QoS, monitorowanie usług IP oraz zgodność z najnowszymi technikami VPN. Przy tak szybkich łączach wymaga to sięgnięcia po zaawansowane techniki i procesory sieciowe o odpowiedniej architekturze. Procesory takie umożliwiają zastosowanie interfejsów już nie 100 G, lecz 400 G, a przede wszystkim zapewniają efektywne przetwarzanie danych z portów 10, 40 i 100 G z elastycznym przydziałem zasobów obliczeniowych routera. Inny przykład nowych rozwiązań wynika z konieczności zwiększenia efektywności transmisji multimediów. Gdy mowa o sprzęcie IP, wyraża się to przez dodawanie kart wspomagających transmisję wideo. Na przełączniki Ethernet największy wpływ ma coraz szersze rozpowszechnienie techniki Carrier Ethernet oraz cloud computing, w którym sieć staje się integralną częścią infrastruktury IT. Wdrożenie systemów chmurowych często oznacza konieczność zastosowania nowych rozwiązań dla sieci LAN, takich jak SPB (Shortest Path Bridging) i EVB (Edge Virtual Bridging), oraz portów o dużej przepływności.

MARCIN ŚCIEŚLICKI

architekt rozwiązań sieciowych w HP

Producenci wytwarzają rozwiązania coraz bardziej skonsolidowane, czyli uniwersalne. Na przykład routery z modułem przełącznika, przełącznik z modułem firewalla czy też kontrolera bezprzewodowego. Klienci chcą, aby ich sieć umożliwiała transmisję bezprzewodową, co oznacza, że przełączniki muszą być wyposażone w porty gigabitowe na styku z punktem dostępu. Powinny być też zgodne z techniką PoE+. Dlatego duże znaczenie ma zastosowanie prostej w obsłudze, uniwersalnej aplikacji do zarządzania całą siecią (single pane of glass), a nie tylko jej fragmentami (np. jedynie przełącznikami czy wyłącznie routerami). Rośnie też znaczenie aplikacji, które umożliwiają zarządzanie dostępem do sieci (802.1X) i które wykrywają wąskie gardła w sieci.

RAFAŁ STAŚ

inżynier systemowy odpowiedzialny za technologię Cisco Borderless Network

Z roku na rok routery stają coraz bardziej skomplikowane. W tej chwili są one fundamentem architektury Unified Communication – łączą telefonię IP firmy i operatora, spełniają funkcje bramy bezpieczeństwa i tłumaczą standardy komunikacyjne pomiędzy dwoma światami, np. H.323 na SIP. W nowoczesnych routerach zapora ogniowa lub IPS to standard. Produkty tego typu muszą być przygotowane do obsługi standardu LTE (Long Term Evolution). Ponadto coraz częściej mówi się o rozwiązaniach M2M (Machine to Machine), w których potrzebny jest kompaktowy router do komunikacji między urządzeniami przemysłowymi lub specjalnego zastosowania – między bankomatami czy urządzeniami telemetrycznymi. Oczywiście urządzenie powinno też mieć porty PoE. Podsumowując, można zaryzykować stwierdzenie, że router to tak naprawdę już nie tylko router, ale urządzenie wielofunkcyjne, dla którego powinno znaleźć się nową nazwę.