Strona główna Wykład 1 Wykład 2 Wykład 3 Wykład 4 Wykład 5
1/30
Analiza i optymalizacja wydajności sieci
Wydajność sieci komputerowej jest kluczowym czynnikiem decydującym o komforcie pracy użytkowników oraz stabilności systemów biznesowych. W dobie digitalizacji, gdzie większość usług opiera się na chmurze i transmisji czasu rzeczywistego, każda milisekunda opóźnienia ma znaczenie. Analiza wydajności to proces ciągły, polegający na monitorowaniu kluczowych parametrów, identyfikacji wąskich gardeł oraz wdrażaniu technik optymalizacyjnych. Celem tego wykładu jest zrozumienie metryk wydajności (KPI), zapoznanie się z narzędziami diagnostycznymi oraz poznanie metod poprawy przepustowości i redukcji opóźnień w nowoczesnych infrastrukturach sieciowych. Wydajna sieć to nie tylko szybkie kable, to przede wszystkim optymalna konfiguracja protokołów i inteligentne zarządzanie ruchem.
Schemat ogólny analizy wydajności sieci — liczniki, wykresy i optymalizacja
2/30
Kluczowe metryki wydajności (KPI)
Aby skutecznie analizować sieć, musimy posługiwać się wymiernymi wskaźnikami jakości (KPI — Key Performance Indicators). Najważniejsze z nich to: 1. Przepustowość (Throughput) — rzeczywista ilość danych przesłanych w jednostce czasu. 2. Opóźnienie (Latency) — czas potrzebny na przejście pakietu od źródła do celu. 3. Jitter — zmienność opóźnienia, kluczowa dla VoIP i wideo. 4. Packet Loss — procent pakietów, które nie dotarły do celu. 5. Utylizacja łącza — stopień wykorzystania dostępnego pasma. Każdy z tych parametrów wpływa na inne aplikacje — np. wideo wymaga stabilnego jittera i niskich strat, podczas gdy pobieranie dużych plików zależy głównie od przepustowości. Monitoring tych metryk pozwala na szybką reakcję w przypadku degradacji usług.
Zestawienie ikon reprezentujących Latency, Throughput, Jitter i Packet Loss
3/30
Przepustowość a pasmo (Bandwidth vs Throughput)
Często mylone pojęcia, które mają fundamentalne znaczenie. Pasmo (Bandwidth) to maksymalna, teoretyczna zdolność przesyłowa łącza (np. 1 Gbps). Przepustowość (Throughput) to rzeczywista, zmierzona prędkość przesyłu danych użytecznych. Różnica wynika z narzutu protokołów (overhead), kolizji, błędów transmisji oraz wydajności urządzeń pośredniczących. Pojęcie Goodput określa przepustowość warstwy aplikacji — ilość danych dostarczonych bez narzutów nagłówków protokołów i bez retransmisji. Przykładowo, na łączu 100 Mbps, faktyczny transfer plików może wynosić 90 Mbps (Throughput), a po odjęciu narzutów FTP/HTTP — 85 Mbps (Goodput). Optymalizacja dąży do zbliżenia przepustowości do teoretycznego pasma.
Porównanie pasma i przepustowości — rura z wodą (pasmo) i faktyczny przepływ (throughput)
4/30
Opóźnienie (Latency) i jego rodzaje
Całkowite opóźnienie end-to-end składa się z kilku składowych: 1. Opóźnienie propagacji — czas podróży sygnału przez medium (ograniczone prędkością światła). 2. Opóźnienie transmisji — czas potrzebny na "wypchnięcie" wszystkich bitów pakietu na kabel (zależy od prędkości portu). 3. Opóźnienie kolejkowania — czas oczekiwania pakietu w buforze routera/switcha z powodu natłoku ruchu. 4. Opóźnienie przetwarzania — czas potrzebny urządzeniu na analizę nagłówka, sprawdzenie sum kontrolnych i podjęcie decyzji o routingu. W sieciach lokalnych (LAN) dominują opóźnienia przetwarzania i transmisji, natomiast w sieciach rozległych (WAN) głównym czynnikiem jest dystans i opóźnienie propagacji.
Wykres składowych opóźnienia: propagacja, transmisja, kolejkowanie, przetwarzanie
5/30
Jitter i jego wpływ na aplikacje czasu rzeczywistego
Jitter to wahania opóźnienia w czasie. Jeśli pakiety są wysyłane w równych odstępach (np. co 20 ms), a docierają w nieregularnych (15 ms, 25 ms, 18 ms), mamy do czynienia z jitterem. Jest on zabójczy dla aplikacji czasu rzeczywistego, takich jak VoIP (telefonia IP) czy wideokonferencje, gdzie powoduje "rwanie" dźwięku i obrazu. Urządzenia końcowe stosują Jitter Buffer (bufor odtwarzania), który gromadzi pakiety i oddaje je aplikacji w równym tempie. Zbyt duży bufor zwiększa ogólne opóźnienie, zbyt mały nie radzi sobie z dużymi wahaniami. Optymalizacja jittera polega na stosowaniu priorytetyzacji ruchu (QoS) i minimalizacji kolejkowania dla pakietów wrażliwych.
Schemat Jitter Buffer: nierówne pakiety wejściowe, równe paczki na wyjściu
6/30
Narzędzia diagnostyczne warstwy podstawowej
Klasyczna diagnostyka zaczyna się od prostych narzędzi wbudowanych w systemy operacyjne. Ping (ICMP Echo) pozwala sprawdzić osiągalność hosta i mierzy czas RTT (Round Trip Time) oraz straty pakietów. Traceroute / tracert pokazuje ścieżkę pakietu przez kolejne routery (hop-by-hop), identyfikując miejsce występowania opóźnień. Narzędziem łączącym zalety obu jest MTR (My Traceroute), który w sposób ciągły monitoruje całą ścieżkę, pokazując statystyki strat i opóźnień dla każdego węzła. Jest to nieocenione przy wykrywaniu niestabilnych łączy u dostawców ISP. MTR pozwala odróżnić chwilowy skok opóźnienia od stałego problemu na konkretnym routerze.
Zrzut ekranu z terminala — przykład działania MTR ze statystykami hopów
7/30
Analiza protokołów i ruchu (Sniffing)
Gdy proste testy zawodzą, konieczna jest głęboka analiza pakietów (DPI — Deep Packet Inspection). Wireshark to najpopularniejszy analizator ruchu (snifer), który pozwala "podejrzeć" każdy bajt przesłany przez sieć. Pozwala on zidentyfikować: retransmisje TCP (wskazują na straty), błędy w negocjacji okien TCP, nieprawidłowe flagi czy nadmiarowy ruch rozgłoszeniowy (broadcast). W środowiskach serwerowych powszechnie stosuje się tcpdump do przechwytywania ruchu bez interfejsu graficznego, a następnie analizuje pliki .pcap w Wiresharku. Analiza ruchu pozwala zrozumieć, czy problem wydajności leży w konfiguracji sieci, czy w samym zachowaniu aplikacji (np. zbyt częste małe zapytania).
Widok okna Wireshark z listą pakietów i szczegółami nagłówka TCP
8/30
Pomiary wydajności end-to-end — iperf3
Aby zmierzyć faktyczną przepustowość między dwoma punktami, nie polegamy na kopiowaniu plików (które zależy od prędkości dysku), lecz używamy generatora ruchu. iperf3 to standardowe narzędzie do testowania przepustowości sieci. Działa w architekturze klient-serwer. Może testować ruch TCP (domyślnie), UDP (pokazując straty i jitter) oraz SCTP. Pozwala na ustawienie liczby równoległych strumieni (-P), czasu trwania testu, rozmiaru okna TCP czy docelowej przepustowości dla UDP. Testy iperf3 są niezbędne przy weryfikacji jakości nowych łączy WAN, wydajności tuneli VPN czy wydajności kart sieciowych w serwerach wirtualnych.
Schemat testu iperf3: Client -> Network -> Server z wynikiem Mbps
9/30
Monitorowanie infrastruktury (NMS)
Systemy Zarządzania Siecią (NMS — Network Management System) oferują wgląd w czas rzeczywisty i historyczny. SNMP (Simple Network Management Protocol) jest używany do pobierania liczników z interfejsów (in/out octets), co pozwala na rysowanie wykresów obciążenia portów. NetFlow / IPFIX dostarcza informacji o tym, "kto, z kim i jak" rozmawia — identyfikuje aplikacje generujące najwięcej ruchu. Syslog gromadzi zdarzenia systemowe (np. podniesienie interfejsu, błędy procesora). Nowoczesne systemy takie jak Zabbix, PRTG czy SolarWinds łączą te dane, prezentując je na czytelnych dashboardach, co ułatwia proaktywne wykrywanie zbliżającego się nasycenia łączy (proactive monitoring).
Dashboard systemu monitoringu z wykresami obciążenia i statusami urządzeń
10/30
Analiza jakości usług (QoS Analysis)
Wydajność to nie tylko suma Mbps, to także gwarancja jakości dla konkretnych usług. Monitoring QoS polega na weryfikacji, czy pakiety są poprawnie oznaczane (DSCP/CoS) i czy urządzenia sieciowe przestrzegają polityk priorytetyzacji. Analizujemy statystyki kolejek na portach wyjściowych routerów — jeśli widzimy liczne drops (odrzucenia) w kolejce o wysokim priorytecie, oznacza to, że pasmo zarezerwowane dla tej klasy jest zbyt małe lub mechanizm klasyfikacji działa błędnie. Narzędzia takie jak Cisco IP SLA pozwalają na symulację ruchu głosowego i ciągły pomiar jakości (MOS — Mean Opinion Score) między oddziałami firmy, co daje administratorowi informację o jakości rozmów przed skargami użytkowników.
Wykres statystyk kolejek QoS z podziałem na klasy ruchu i zarejestrowane drops
11/30
Wąskie gardła (Bottlenecks) w sieci
Wąskie gardło to punkt w sieci, który ogranicza wydajność całego systemu. Najczęściej występuje tam, gdzie dochodzi do zmiany przepustowości (np. switch 1 Gbps połączony z routerem WAN o porcie 100 Mbps). Inne przyczyny to: 1. Limity procesora (CPU) — router nie nadąża z przetwarzaniem pakietów (szczególnie przy dużej ilości ACL czy szyfrowaniu VPN). 2. Małe bufory — switch nie jest w stanie przetrzymać chwilowych skoków ruchu (microbursts). 3. Ograniczenia warstwy 7 — firewall analizujący ruch aplikacyjny może stać się wąskim gardłem, jeśli jego wydajność inspekcji (throughput with IPS) jest niższa niż przepustowość łącza. Identyfikacja wąskiego gardła polega na badaniu obciążenia każdego elementu na ścieżce danych.
Ilustracja wąskiego gardła — klepsydra z przepływającymi danymi
12/30
Przeciążenie sieci (Congestion)
Przeciążenie występuje, gdy żądanie przepływu danych przekracza dostępną wydajność łącza lub urządzenia. Skutkuje to zapełnieniem buforów, co prowadzi do wzrostu opóźnień kolejkowania i ostatecznie do odrzucania pakietów (tail drop). W przypadku protokołu TCP, odrzucenie pakietu powoduje drastyczne zmniejszenie okna transmisji (congestion window), co gwałtownie obniża przepustowość. Zjawisko Global Synchronization występuje, gdy wiele sesji TCP jednocześnie traci pakiety i jednocześnie zwalnia, po czym jednocześnie próbuje przyspieszyć — prowadzi to do falowego, nieefektywnego wykorzystania łącza. Rozwiązaniem są algorytmy inteligentnego zarządzania kolejkami (AQM), które odrzucają pakiety w sposób planowy.
Wykres synchronizacji globalnej TCP — ząbkowane wykorzystanie pasma
13/30
Problemy w warstwie fizycznej
Często problemy z wydajnością mają błahe podłoże fizyczne. Uszkodzony kabel skrętka, złe zarobienie wtyku RJ45 czy załamanie światłowodu mogą generować błędy CRC (Cyclic Redundancy Check). Błąd CRC powoduje odrzucenie ramki przez switch i wymusza retransmisję w wyższych warstwach, co drastycznie obniża wydajność. Kolejnym problemem jest Duplex Mismatch — gdy jedno urządzenie działa w trybie Full-Duplex, a drugie w Half-Duplex. Powoduje to masowe kolizje i błędy przy próbie jednoczesnego nadawania i odbierania. W nowoczesnych sieciach autonegocjacja zazwyczaj rozwiązuje te problemy, ale starsze urządzenia lub błędy w manualnej konfiguracji mogą je wywołać. Narzędzia SNMP pozwalają monitorować licznik "Error Counters" na interfejsach.
Zdjęcie mikroskopowe pękniętego światłowodu i wykres błędów CRC
14/30
Problemy z MTU i fragmentacją
MTU (Maximum Transmission Unit) definiuje największy rozmiar pakietu IP, jaki może przejść bez fragmentacji (standardowo 1500 bajtów w Ethernet). Jeśli pakiet napotka łącze z mniejszym MTU (np. tunel VPN z MTU 1400), musi zostać pocięty na mniejsze części przez router (fragmentacja). Fragmentacja obciąża procesor routera i zwiększa narzut nagłówków, co obniża wydajność. Jeśli flaga "Don't Fragment" (DF) jest ustawiona, pakiet zostanie odrzucony, a router wyśle komunikat ICMP "Packet Too Big". Mechanizm PMTUD (Path MTU Discovery) automatycznie wykrywa najmniejsze MTU na ścieżce, by zapobiec problemom. Blokowanie ruchu ICMP na firewallach może spowodować awarię PMTUD, co prowadzi do sytuacji, gdzie małe zapytania (ping) przechodzą, a duże strony WWW (pełne pakiety) nie ładują się.
Schemat fragmentacji pakietu IP przy przejściu przez tunel z mniejszym MTU
15/30
Błędy w konfiguracji logicznej
Wydajność cierpi również przez błędy w logice sieci. W warstwie 2 pętle przełączania (L2 Loops) mogą spowodować sztorm rozgłoszeniowy (broadcast storm), który w sekundy nasyca pasmo i paraliżuje procesory wszystkich switchy w sieci — protokół Spanning Tree (STP) ma temu zapobiegać, ale błędna konfiguracja może go wyłączyć. W warstwie 3 nieoptymalny routing (tzw. asymetryczny routing) może powodować, że pakiety w jedną stronę idą dłuższą drogą o większym opóźnieniu. Problemem są też wpływające na wydajność błędy w ACL — zbyt długie listy dostępu sprawdzane sekwencyjnie w oprogramowaniu routera (bez akceleracji sprzętowej) mogą drastycznie zwiększyć opóźnienie przetwarzania.
Schemat pętli L2 i wizualizacja pakietów krążących w nieskończoność
16/30
Optymalizacja warstwy 2 (Switching)
Pierwszym krokiem optymalizacji wewnątrz sieci lokalnej jest zwiększenie pasma między switchami. Agregacja łączy (EtherChannel / LACP) pozwala połączyć kilka fizycznych portów w jeden logiczny trunk (np. 4x 1 Gbps = 4 Gbps). Zapewnia to nie tylko większą przepustowość, ale i redundancję. Kolejnym elementem jest VLAN Segmentation — podział dużych domen rozgłoszeniowych na mniejsze izolowane podsieci, co redukuje narybek ruchu rozgłoszeniowego docierający do każdego hosta. Funkcja Storm Control pozwala na sztywne ograniczenie procentu ruchu broadcast/multicast na porcie, chroniąc sieć przed awariami kart sieciowych generujących sztormy. Stosowanie ramek Jumbo Frames (do 9000 bajtów) w sieciach storage (SAN/ISCSI) redukuje liczbę nagłówków i zmniejsza obciążenie CPU przy transferze ogromnych ilości danych.
Schemat EtherChannel łączącego dwa switche wieloma kablami
17/30
Optymalizacja warstwy 3 (Routing)
W warstwie 3 kluczowa jest efektywność trasowania. ECMP (Equal-Cost Multi-Path) pozwala routerowi wykorzystywać wiele ścieżek o tym samym koszcie jednocześnie, rozkładając ruch na kilka łączy WAN. W protokołach stanu łącza (OSPF, IS-IS) optymalizacja polega na odpowiednim dostrojeniu metryk i skracaniu czasów konwergencji (przeliczania ścieżek). Route Summarization (agregacja tras) pozwala na zmniejszenie tabeli routingu — router zamiast setek tras szczegółowych przechowuje jedną zbiorczą, co oszczędza RAM i przyspiesza wyszukiwanie w tabeli routingu. W sieciach korporacyjnych optymalizację zapewnia też właściwa gradacja hierarchiczna: Core, Distribution, Access, gdzie ruch jest agregowany i filtrowany na odpowiednich poziomach.
Schemat ECMP — pakiety rozdzielane na dwa alternatywne routery wyjściowe
18/30
Techniki Quality of Service (QoS)
QoS to zestaw mechanizmów zarządzających zasobami sieciowymi w taki sposób, by różne rodzaje ruchu otrzymywały odpowiednie traktowanie. Proces obejmuje: 1. Klasyfikację — rozpoznanie typu ruchu (np. po porcie w TCP/UDP). 2. Oznaczanie (Marking) — nadanie pakietowi priorytetu w nagłówku (CoS w L2 lub DSCP w L3). 3. Kolejkowanie — umieszczenie pakietów w buforach o różnym priorytecie. Priority Queuing (PQ) zawsze wysyła pakiety z najwyższej kolejki jako pierwsze (idealne dla głosu). CBWFQ (Class-Based Weighted Fair Queuing) gwarantuje minimalne pasmo dla każdej klasy, zapobiegając "zagłodzeniu" ruchu o niższym priorytecie. Dzięki QoS, nawet na nasyconym łączu, rozmowa telefoniczna pozostaje czysta, a pobieranie plików po prostu zwalnia.
Schemat QoS: Classification -> Marking -> Queuing -> Scheduling
19/30
Zarządzanie ruchem (Traffic Shaping & Policing)
Dwie główne metody ograniczania pasma. Traffic Policing działa bezlitośnie: wszystko, co przekracza limit, jest natychmiast odrzucane. Powoduje to straty pakietów i retransmisje, co jest szkodliwe dla TCP. Traffic Shaping (formowanie ruchu) jest bardziej inteligentne: pakiety nadmiarowe trafiają rygorystycznie do bufora i są wysyłane z opóźnieniem w miarę dostępności pasma. Shaping "wygładza" skoki ruchu, czyniąc go bardziej przewidywalnym dla sieci dostawcy, ale zwiększa opóźnienie dla tych konkretnych pakietów. Policing stosuje się zazwyczaj na interfejsach wejściowych (Inbound), gdzie nie mamy wpływu na nadawcę, a Shaping na wyjściowych (Outbound), by dopasować nadawanie do przepustowości łącza odbiorcy.
Wykres porównujący Policing (ostre cięcie) i Shaping (wygładzony szczyt)
20/30
Algorytmy unikania przeciążeń (WRED)
Standardowe kolejkowanie "Tail Drop" (odrzucanie z końca) prowadzi do synchronizacji globalnej TCP i nieefektywności. RED (Random Early Detection) to algorytm, który losowo odrzuca pakiety, gdy bufor zaczyna się zapełniać, zanim dojdzie do krytycznego przepełnienia. Sygnalizuje to nadawcom TCP konieczność zwolnienia tempa transmisji przed wystąpieniem awarii. WRED (Weighted RED) dodaje do tego priorytety QoS — pakiety o niższym priorytecie (np. backup) są odrzucane losowo znacznie wcześniej niż pakiety o wysokim priorytecie (np. dane CRM). Dzięki temu najważniejsze aplikacje mają stabilną przepustowość, a mechanizm kontroli zatłoczenia TCP działa płynnie dla całej sieci.
Wykres prawdopodobieństwa odrzucenia pakietu w funkcji zapełnienia bufora (WRED)
21/30
Optymalizacja stosu TCP/IP
Wydajność łączy o dużym opóźnieniu, np. satelitarnych lub międzykontynentalnych, zależy od parametrów TCP. TCP Window Scaling pozwala na zwiększenie rozmiaru okna powyżej 64 KB, co umożliwia wysłanie większej ilości danych bez czekania na potwierdzenie ACK — niezbędne do osiągnięcia prędkości rzędu Gbps na dużych dystansach. Selective ACK (SACK) pozwala odbiorcy potwierdzić tylko te pakiety, które dotarły, zamiast wymuszać retransmisję całej sekwencji po zgubieniu jednego pakietu. Nowoczesne algorytmy takie jak Google BBR (Bottleneck Bandwidth and RTT) nie czekają na stratę pakietu, by zwolnić, lecz modelują pasmo i opóźnienie w czasie rzeczywistym, osiągając znacznie wyższą przepustowość na łączach o wysokiej stratności.
Grafika prezentująca TCP Window — przesyłanie wielu danych przed odebraniem ACK
22/30
Content Delivery Networks (CDN)
Niezależnie od optymalizacji sieci, prędkość światła jest nieprzekraczalna (opóźnienie propagacji). Aby przyspieszyć dostęp do treści dla użytkowników na całym świecie, stosuje się CDN. Sieci CDN (np. Akamai, Cloudflare) przechowują kopie statycznych zasobów (obrazy, filmy, skrypty) na tysiącach serwerów brzegowych (edge nodes) blisko użytkowników. Zamiast pobierać obrazek z serwera w USA, użytkownik w Polsce pobiera go z węzła w Warszawie, co redukuje opóźnienie z 150 ms do 5 ms. CDN-y odciążają też serwer źródłowy (origin server) i zapewniają ochronę przed atakami DDoS, absorbując ogromny ruch na krawędzi swojej infrastruktury.
Mapa świata z węzłami CDN i liniami łączącymi użytkowników z najbliższymi węzłami
23/30
Load Balancing (Równoważenie obciążenia)
Load Balancer to urządzenie lub soft, który rozdziela ruch przychodzący pomiędzy wiele serwerów (farmę serwerów). Optymalizuje to wydajność przez unikanie przeciążenia pojedynczej maszyny. Algorytmy: 1. Round Robin — po kolei do każdego. 2. Least Connections — do tego, który aktualnie obsługuje najmniej użytkowników. 3. Source IP Hash — zawsze ten sam serwer dla danego IP (sesyjność). Nowoczesne load balancery warstwy 7 (Application Delivery Controllers — ADC) potrafią też odciążać serwery od trudnych zadań, takich jak terminacja SSL/TLS (SSL Offloading) czy kompresja danych, pozwalając serwerom aplikacji skupić się jedynie na generowaniu treści.
Schemat Load Balancera rozdzielającego ruch z Internetu na trzy serwery Web
24/30
SDN i Automatyzacja w służbie wydajności
Sieci Programowalne (SDN — Software Defined Networking) oddzielają warstwę sterowania (control plane) od warstwy danych (data plane). Centralny kontroler widzi całą topologię i bieżące obciążenie łączy. Może on dynamicznie, za pomocą API, zmieniać ścieżki przepływu danych w zależności od rzeczywistych metryk. Przykładowo, jeśli główne łącze światłowodowe wykazuje nagły wzrost opóźnień (ale nie padło fizycznie), kontroler może natychmiast przekierować ruch krytyczny na inne, szybsze w tej chwili łącze zapasowe. SD-WAN stosuje te koncepty w sieciach rozległych, umożliwiając jednoczesną utylizację tanich łączy Internetowych i drogich MPLS na podstawie bieżącej analizy jakości.
Schemat SDN: Centralny kontroler zarządzający siecią switchy przez protokół OpenFlow
25/30
Wpływ wirtualizacji sieci (NFV)
Wirtualizacja Funkcji Sieciowych (NFV — Network Functions Virtualization) polega na uruchamianie routerów, firewalli czy load balancerów jako maszyn wirtualnych na standardowych serwerach x86. Choć daje to ogromną elastyczność, stawia wyzwania wydajnościowe — stos sieciowy procesora x86 nie jest tak szybki jak dedykowane układy ASIC w routerach sprzętowych. Aby to zniwelować, stosuje się technologie takie jak DPDK (Data Plane Development Kit) lub SR-IOV, które pozwalają aplikacji wirtualnej omijać jądro systemu operacyjnego i komunikować się bezpośrednio z kartą sieciową. Pozwala to na osiągnięcie przepustowości rzędu dziesiątek Gbps na czystym oprogramowaniu (software switching).
Schemat architektury NFV: Standardowe serwery z wirtualnymi instancjami funkcji sieciowych
26/30
Audyt wydajności sieci korporacyjnej
Metodyka audytu wydajności: 1. Baseline — zebranie danych o normalnym działaniu sieci (średnie obciążenie, typowe opóźnienia). 2. Identyfikacja punktów pomiarowych — gdzie i jakie dane zbierać (NMS, Flow). 3. Symulacja obciążenia — testy syntetyczne iperf3/IP SLA w oknach serwisowych. 4. Analiza strat i błędów — przegląd Error Counters na interfejsach. 5. Mapowanie aplikacji — które usługi biznesowe generują najwięcej ruchu i jakie mają wymagania. Audyt kończy się raportem wskazującym konkretne urządzenia do wymiany lub konfiguracje do poprawy. Ważne, by audyt obejmował zarówno warstwę fizyczną (kable, optyka), jak i logiczną (QoS, Routing).
Zdjęcie administratora z laptopem i analizatorem sieciowym przy szafie rack
27/30
Optymalizacja pod kątem pracy zdalnej (VPN)
Wydajność VPN zależy od: 1. Algorytmu szyfrowania — AES-NI (akceleracja sprzętowa procesora) jest kluczowa. 2. Protokołu — UDP (np. WireGuard, DTLS) jest zazwyczaj szybszy niż TCP (OpenVPN over TCP) na łączach o zmiennym opóźnieniu (brak zjawiska TCP-over-TCP). 3. MTU/MSS — poprawne ustawienie limitu MSS (Maximum Segment Size) zapobiega fragmentacji wewnątrz tunelu. 4. Split Tunneling — przesyłanie przez VPN tylko ruchu do zasobów firmy, a ruchu do Internetu (Netflix, YouTube) bezpośrednio, co odciąża bramę VPN. Zastosowanie technik WAN Optimization wewnątrz tuneli potrafi skompresować dane i usunąć zbędną gadatliwość niektórych protokołów (np. SMB/CIFS).
Schemat Split Tunneling: ruch biurowy przez tunel, ruch rozrywkowy obok
28/30
Wirtualne laboratoria i symulacje
Zanim wprowadzimy optymalizację do sieci produkcyjnej, musimy ją przetestować. Narzędzia takie jak GNS3, EVE-NG czy Cisco Modeling Labs (CML) pozwalają na uruchamianie realnych systemów operacyjnych routerów (IOS, JunOS, RouterOS) i switchy w środowisku wirtualnym. Symulatory te pozwalają na wstrzykiwanie sztucznego opóźnienia i strat (za pomocą narzędzi typu Linux Traffic Control - tc netem), co pozwala sprawdzić, jak zachowa się aplikacja w trudnych warunkach. Pozwala to na "bezpieczne psucie" sieci w celu znalezienia optymalnych ustawień QoS czy parametrów trasowania bez ryzyka dla biznesu.
Zrzut ekranu z EVE-NG z rozbudowaną topologią sieci i ikonami urządzeń
29/30
Najczęstsze błędy w optymalizacji
Optymalizacja "na ślepo" często pogarsza sytuację. Najczęstsze błędy to: 1. Over-engineering — wprowadzanie zbyt skomplikowanego QoS tam, gdzie pasmo jest wystarczające, co zwiększa opóźnienie przetwarzania. 2. Błędne założenia — optymalizacja łącza, podczas gdy wąskim gardłem jest wydajność bazy danych na serwerze. 3. Brak baseline — wdrażanie zmian bez możliwości porównania "przed i po". 4. Ignorowanie warstwy fizycznej — próba tuningu TCP na łączu, które generuje 5% błędów CRC. Złota zasada optymalizacji: mierz dwa razy, tnij raz — każda zmiana powinna być podparta danymi i zweryfikowana pomiarem po wdrożeniu.
Karykatura administratora sieci
30/30
Podsumowanie wykładu 5
Analiza i optymalizacja wydajności sieci to proces wymagający zarówno znajomości narzędzi (Wireshark, iperf3, SNMP), jak i głębokiego zrozumienia procesów zachodzących w protokołach. Wydajna sieć to taka, która zapewnia niskie opóźnienia dla ruchu krytycznego i wysoką przepustowość dla danych masowych, radząc sobie przy tym z chwilowymi przeciążeniami. Trendy przyszłości to AIOps (zastosowanie AI do przewidywania awarii wydajnościowych) oraz pełna automatyzacja naprawcza. Pamiętaj: użytkownik nie powie Ci, że sieć działa dobrze, powie Ci tylko, kiedy działa wolno. Twoją rolą jest wiedzieć o problemie, zanim użytkownik go poczuje, i mieć gotowe scenariusze optymalizacyjne.
Grafika podsumowująca — żarówka z ikonami sieciowymi i hasłem Performance Optimization