Informations- und Kommunikationstechnik

Zugriffsverfahren im Ethernet

Die in einem Netzwerk verbundenen Stationen verwenden eine hinsichtlich der Netzinfrastruktur vergleichbare Hardware. Das erleichtert das Versenden und den Empfang der Daten. Die Netzknoten brauchen sich nicht auf einen bestimmten Sendeknoten abzustimmen, sondern sie empfangen allen Datenverkehr und verwertet nur die an ihn adressierten Daten. Im Gegenzug kann jede Station Daten in das Netz senden, in der Hoffnung, dass der Empfänger mithört.

Diese Methode hat den Nachteil, dass es beim gleichzeitigen Senden von zwei oder mehreren Stationen zur Datenüberlagerung kommt, wobei die Nachrichteninhalte zerstört werden. Es mussten Zugriffsverfahren für einen möglichst effektiven und ungestörten Datentransport entwickelt werden. Zwei Verfahrensarten kommen zur Anwendung:

Nichtdeterministisches oder stochastisches Verfahren

Alle Stationen sich gleichberechtigt und können zu jeder Zeit zufällig Daten in das Netz senden. Treten Störungen durch Überlagerungen auf, so wird der Sendeversuch nach einer gewissen Wartezeit wiederholt. Je mehr aktive Stationen im Netz vorhanden sind, desto mehr Störungen sind zu erwarten. Die Wartezeiten und Wiederholungen verschlechtern die Übertragungsrate und damit die Netzperformance.

Deterministisches Verfahren

Es besteht eine besondere Rechtevergabe, bei der nur eine Station, die das Senderecht erhalten hat, auch senden kann. Nach dem Datenempfang wird ein neues Freigaberecht vergeben. Der Hardware- und Steuerungsaufwand erhöht die Kosten. Das Netz kann ohne Performanceeinbußen bis zur maximalen Knotenzahl ausgebaut werden. Der Sendezeitpunkt ist berechenbar und bestimmbar.

Carrier Sense Multiple Access

Das CSMA-Verfahren ist das im Ethernet bekannteste und wohl am meisten eingesetzte nichtdeterministische Verfahren. Eine sehr ähnliche Vorläufermethode verwendete das Hawaiianische ALOHA-Inselfunknetz. Jede Sendestation konnte jederzeit per Funk ein Datenpaket versenden. Ist es beim Empfänger fehlerfrei angekommen, so sendete dieser auf einer anderen festen Kanalfrequenz eine Bestätigung. Fehlte diese, konnte die Station die Daten nach einer zufällig generierten Wartezeit erneut senden oder eine andere Station startete ihren Sendeversuch. Bei einem Verhältnis von Sendezeit zur Gesamtzeit von rund 1/5 war das Maximum des Datendurchsatzes erreicht.

Die Effektivität konnte durch eine Zeittaktsteuerung fast verdoppelt werden. Alle Netzstationen synchronisierten sich auf einen Zeitmarkengeber. Jede Station durfte innerhalb ihres festen Zeitfensters, dem time Slot, ein Datenpaket senden. Eine heute noch in der Kommunikation per Satellit genutzte Methode. Das Zeitmultiplexverfahren der ISDN-Telekommunikation ist damit vergleichbar.

Das im Ethernet angewendete CSMA/CD-Verfahren funktioniert mit jeder Netztopologie. Will eine Station Daten senden, so überprüft sie, ob die Leitung frei ist, die Carrier Sense (CS) Methode. Stellt sie Datenverkehr anhand eines Spannungswerts fest, wartet sie auf das Ende der Übertragung und zusätzliche 9,6 μs. Diese Zeitspanne wird Inter Frame Gap genannt.

Ist zu diesem Zeitpunkt der Kanal spannungsfrei, so gibt sie ihr adressiertes Datenpaket auf die Leitung. Sendet kurz nach ihr eine entferntere Station, als Multiple Access (MA) Methode bezeichnet, ebenfalls Daten auf die dort noch als frei erkannte Leitung, dann kommt es zur Datenüberlagerung. Sie verursacht zu hohe und zu niedrige Datenpegel. Sie werden von den sendenden Stationen erkannt, da sie während des Sendevorgangs kontinuierlich den Kanal überprüfen. Bei Sterntopologie erkennen die Komponenten des Netzzentrums wie Hub, Switch ... die Kollision.

Die Methode wird Collision Detect (CD) genannt. Sie generiert und sendet als eindeutiges JAM-Signal eine 32-Bit lange Folge von 1010... Pegelwechsel, das sind 4 Byte im Hexadezimal-Code AAAAAAAA. Der Sendeversuch der Daten wird abgebrochen und alle sendebereiten Stationen warten eine zufällig generierte Zeit, die auch von der Anzahl der vorangegangenen Fehlversuche der Station abhängig ist. Danach beginnt ein neuer Prüfvorgang zum Senden. Kam es zu keiner Kollision, dann nimmt nur die im Datenframe adressierte Station die Daten an.

Signallaufzeit

Eine Kollision kann von der Sendestation nur dann erkannt werden, wenn sie innerhalb ihrer Sendezeit liegt. Diese ist von der Paketgröße abhängig. Das kürzeste Datenpaket als Ethernet-Frame ist auf die Länge von 64 Byte gleich 512 Bits festgelegt. Bei einer Datenrate von 10 MBit/s beträgt die Übertragungszeit für dieses Paket 51,2 μs. Würde die entfernteste Station im Netz gleichzeitig senden, so muss ihr Signal innerhalb der 51,2 μs oder 512 Bitzeiten von der primären Sendestation erkannt werden. Die maximale Signallaufzeit, die als Round Trip Delay (RTD) bezeichnet wird, muss unterhalb der 512 Bitzeiten liegen.

Jede Netzkomponente trägt zur Signallaufzeit bei. Die Summe aller Werte, die teilweise nur geschätzt werden können, muss kleiner als der RTD-Wert sein, sonst kann das CSMA/CD-Protokoll nicht korrekt ausgeführt werden. Es treten verspätete Kollisionen, Late Collisions genannt, auf. Sie belasten den Datenverkehr unnötig, da sie später von höheren Protokollen als defekte Pakete erkannt und erneut angefordert werden müssen.

Das CSMA/CD-Verfahren wurde anfangs für kleinere Netze mit Bustopologie entwickelt. Im Ethernet ist es derzeit auch in großen und schnellen Netzen im Einsatz. Das Verfahren lässt die Bestimmung eines genauen Sendezeitpunkts nicht zu. Da das Ethernet auf einer logischen Busstruktur beruht, werden die Datenpakete am Busende vom Abschlusswiderstand aufgenommen, wodurch die Leitung immer wieder spannungsfrei wird.

Die Firma APPLE verwendet im Apple-Talk-Protokoll ein abgewandeltes CSMA-Verfahren. Die sendewillige Station prüft, ob die Leitung frei ist, und sendet dann ein eindeutiges Vorsignal. Dieses "Achtung Sendung" muss von allen anderen Stationen empfangen und beachtet werden. Sie warten den Sendevorgang dann ab. Das CSMA/CA-Verfahren, dem Collision Avoid (CA) vermeidet damit jede Kollision, kann aber insgesamt die Datenübertragungsrate verringern.

Token-Passing

Token-Ring

Das Verfahren wurde für Ringnetze entwickelt. In allen Netzstationen ist mindestens die Netzwerkkarte mit dem Transceiver dauerhaft aktiv. Auf der Leitung läuft von Station zu Station ein besonderes Datenpaket, Token oder Frei-Token genannt. In der Regel wird es von einem als Monitorstation ausgezeichneten Netzknoten erzeugt und zur Nachbarstation gesendet. Sie empfängt das Token und gibt es zum nächsten Nachbarn weiter. Die Station, die das Frei-Token erhält, ist sendeberechtigt. Das Token-Passing ist ein deterministisches Verfahren, wo immer nur eine Station die Sendeerlaubnis hat. Durch eine festgelegte Haltezeit des Tokens in der Station und einer definierten Größe des Datenframes wird der Datendurchsatz zeitlich bestimmbar.

Die mit dem Frei-Token sendeberechtigte Station setzt im Token das Besetz-Bit und fügt das Datenpaket mit der Empfängeradresse an. Als Besetz- oder Busy-Token wird es zum benachbarten Netzknoten gesendet. Das Datenpaket durchläuft alle Stationen bis zum Empfänger. Dieser bestätigt den korrekten Empfang durch ein Bestätigungszeichen, dem Acknowledge und sendet das Busy-Token weiter. Trifft dieses Token beim ursprünglichen Absender ein, so löscht der es und sendet einen neuen Frei-Token in den Ring.

Das Token-Passing-Verfahren funktioniert, solange alle Stationen aktiv sind und fehlerfrei arbeiten. Fällt ein Netzknoten aus oder erzeugt Fehler, dann bricht die Kommunikation des Gesamtnetzes zusammen. Durch die Erweiterung zu einem Doppelringsystem mit zusätzlicher Monitorstation zur Überwachung des Tokens und Ringleitungsverteilern lassen sich diese Fehler vermeiden. Ringleitungsverteiler ermöglichen im laufenden Betrieb die Anzahl der Stationen im Ring zu verändern. Nach außen scheinen solche Netze eine Stern-Ring-Struktur zu besitzen. Zum höheren Hardwareaufwand kommt eine umfangreichere Steuerung hinzu.

Token-Bus

Das Token-Verfahren ließ sich für Bus-, Stern- und Baumtopologie ausbauen. Die Arbeitsweise entspricht einem logischen Ring. Alle Stationen am Leitungsbus empfangen Daten und erhalten damit das Token. Die Sendefreigabe wird durch die Knotenadressen festgelegt. Die Sendeberechtigung zählt von der höchsten zur nächstniedrigen Adresse. Hat der niedrigst adressierte Knoten den Token übernommen, so trägt er die höchste Adresse ein und sendet den Token zurück. Das Token-Bus-Verfahren ist nach IEEE 804.2 genormt.

Anwendung findet das Verfahren im industriellen Bereich und in lokalen Netzen mit ARCNET-Technologie. Die Übertragungsrate ist geringer als beim Token-Ring und Ethernet-Verfahren. Erreichbar sind maximal 20 MBit/s mit dem Vorteil der Kollisionsfreiheit, durch die der Nachteil einer geringeren Geschwindigkeit teilweise aufgehoben wird.

Vorteil des deterministischen Token-Verfahrens ist die zeitliche Bestimmbarkeit im Nachrichtenverkehr und der volle Netzausbau ohne Einbußen bei der maximal möglichen Übertragungsrate. Die Methode eignet sich besonders für Netze mit kontinuierlich sehr hohem Datenfluss in Großrechenanlagen und Netzverbindungen im Fernverkehr.