Einführung in Test Gigabit-Ethernet-Switches

Technische Grundlagen Gigabit-Ethernet-Switches: Wettlauf im LAN

29. Februar 2008, 18:58 Uhr |

Im Zeitalter von Unified-Communications müssen LAN-Switches nicht nur Bandbreite satt liefern, sie sollen auch den Anforderungen der verschiedenen Real-Time-Anwendungen gewachsen sein. Mechanismen wie die Datenpriorisierung sollen dies ermöglichen. Der Beitrag gibt eine Einführung in dieses Thema. Den Test von Gigabit-Ethernet-Switches finden Sie im dazu gehörigen separaten Beitrag.

Moderne Kommunikationsnetze stellen aktive Komponenten vor immer anspruchsvollere Aufgaben. Mit dem Siegeszug der IP-Telefonie hält die erste Echtzeitanforderungen stellende Anwendung flächendecken Einzug in die Welt der Ethernet-basierenden Unternehmensnetze.

Und auch die Integration von Video-over-IP steht in vielen Bereichen schon im Pflichtenheft. Dann sind da noch die klassischen Datenapplikationen, und deren Anforderungen an das Netzwerk werden auch immer anspruchsvoller.

Um diesen Herausforderungen zu begegnen haben die Switch-Hersteller ihre Systeme zügig weiter entwickelt. Mit der Einführung von 10-Gigabit-Ethernet ist das gute alte Ethernet nochmals um den Faktor 10 schneller geworden. Und Mechanismen wie die Datenpriorisierung und das Bandbreitenmanagement sollen für eine intelligente Ausnutzung der zur Verfügung gestellten Ressourcen im gesamten Unternehmensnetz sorgen.

Kommunikationsstörungen im LAN

Die Übertragung von einem Endpunkt im Netzwerk zum anderen erfordert eine gewisse Laufzeit. Dabei gibt es zunächst einen festen Teil, der durch die Auswahl der zu verwendenden Codecs, also der Sprach-Digitalisierungs-Algorithmen, und der Netzwerkkomponenten beeinflussbar und ziemlich gut berechenbar ist.

Dieser wird durch die Zeit, die die Kodierungsalgorithmen an beiden Endpunkten benötigen, durch die Hardware-Durchlaufzeit auf den beteiligten End- und Knotenpunkten und durch die rein physikalischen Übertragungsgeschwindigkeiten der verschiedenen Medien über bestimmte Entfernungen festgelegt.

Zusätzlich entstehen Verzögerungen beispielsweise durch volle Warteschlangen bei Überlast oder durch die eventuelle Wahl alternativer Routen zum Zielpunkt. Die beiden letzteren Punkte können auch die Ursache für zwei andere Übertragungsfehler sein. Beim sogenannten Jitter treffen Pakete, die in regelmäßigen Intervallen in das Netz geschickt werden, in unregelmäßigen Abständen beim Empfänger ein.


Die richtige Reihenfolge ist wichtig

Ist bei isochromem Datenverkehr wie der IP-Sprachübertragung ein Paket zu schnell am Ziel, dann kann es für die Ausgabe noch nicht verwendet werden. Kommt es dagegen später als erwartet, können Lücken in der Sprachwiedergabe entstehen. Diesem Jitter kann man durch den Einsatz eines Jitter-Buffers entgegenwirken, der Pakete aus dem Netz entgegennimmt und verzögert aber gleichmäßig an die Dekodiereinheit weiter gibt. Natürlich erhöht sich dadurch auch der Delay.

Treffen die Pakete beim Empfänger in einer anderen Reihenfolge ein, als vom Sender beabsichtigt, spricht man von einem Sequence-Error. Häufigste Ursache hierfür ist, dass einige zu einer Übertragung gehörende Pakete auf Grund einer Überlast regeroutet werden und so ihr Ziel auf einem anderen, möglicherweise langsameren Weg erreichen.

Wie gut solche Fehler in der Paket-Reihenfolge ausgeglichen beziehungsweise überspielt werden können, hängt in erster Linie von der Länge des Jitter-Buffers ab.

Auswirkungen von Paketverlusten

Gehen bei der Übertragung Pakete ganz verloren (Packet-Loss), dann sind die Auswirkungen um so größer, je höher die Anzahl der Sprachdaten-Bytes in dem verlorenen Paket war und je stärker der Codec komprimiert. Gehen mehrere aufeinander folgende Pakete verloren (Consecutive-Packet-Loss), sind die Auswirkungen auf die Sprachqualität deutlich stärker, als wenn die Verluste gleichmäßig streuen.

Diese Verlustart tritt überwiegend in Burst-Situationen auf. Die Ursache für Packet-Loss liegt häufig darin, dass auf dem Übertragungsweg Bandbreitenengpässe auftreten und durch länger dauernde Bursts Warteschlangen überlaufen, weshalb dann Pakete verworfen werden, oder Pakete in den Warteschlangen so weit verzögert werden, dass sie nicht mehr über den Jitter-Buffer sinnvoll versendet werden können.

Werden die Jitter-Buffer sehr groß ausgelegt, um entsprechende Netzwerkfehler wie Sequence-Errors oder Jitter auszugleichen, führt diese Technik selbst zu einer zu großen Verzögerung, die dann gleichfalls die Echtzeitkommunikation stört. Jitter-Buffer verringern also Probleme, die durch Jitter und Squenz-Error entstehen können, erzeugen aber ihrerseits zusätzliche Delay-Zeiten. Gute Endgeräte verwalten den Jitter-Buffer daher dynamisch.

Priorisierung muss funktionieren

Bei entsprechender Überlast im Netz sind Datenverluste ganz normal, jedoch sollen sie durch die Priorisierungsmechanismen in der Regel auf nicht echtzeitfähige Applikationen verlagert werden. Arbeitet diese Priorisierung nicht wie vorgesehen, kommt es auch im Bereich der hoch priorisierten Sprachdaten zu Verlusten.

Für eine realitätsnahe und aussagefähige Auswertung der Messergebnisse ist es darüber hinaus entscheidend zu wissen, welche Framegrößen in welchen Verteilungen in realen Netzwerken vorkommen. Analysen der Verteilung der Framegrößen, beispielsweise für das NCI-Backbone oder von den Applikationen her typischer Business-DSL-Links haben ergeben, dass rund 50 Prozent aller Datenrahmen in realen Netzwerken 64 Byte groß sind. Die übrigen rund 50 Prozent der zu transportierenden Datenrahmen streuen über alle Rahmengrößen von 128 bis 1518 Byte.


  1. Technische Grundlagen Gigabit-Ethernet-Switches: Wettlauf im LAN
  2. Verlust von Frames entscheidendes Kriterium
  3. Mapping zwischen Domänen

Jetzt kostenfreie Newsletter bestellen!

Matchmaker+