Einfach erklärt: Low Latency
Wirklichkeitsgetreue Erlebnisse mit Virtual Reality-Brillen und sicher selbstfahrende Autos werden vor allem eines brauchen: ein Netz, das nahezu in Echtzeit reagiert. Netze von morgen werden das können.
Latency, Latenz oder Reaktionszeit: Das ist der Zeitraum zwischen einem Ereignis und dem Eintreten einer sichtbaren Reaktion darauf. In der Telekommunikation setzt die Physik der Latenzzeit Grenzen – also etwa die Länge der Wege, die Daten in den Netzen in einer bestimmten Zeit zurücklegen können. Was bedeutet das für den Nutzer? Beispiel mobile Virtual Reality-Erlebnisse (VR). Das menschliche Gehirn nimmt ab etwa 14 bis 16 Bildern pro Sekunde - das ist individuell verschieden - aufeinanderfolgende Bilder als bewegte, aber nicht unbedingt ruckelfreie, Szene wahr. Für Kinofilme sind deshalb rund 24 Bilder pro Sekunde Standard. Wer sich mit einer entsprechenden VR-Brille in einer virtuellen Welt bewegen möchte, möchte natürlich nicht, dass ihm durch Ruckeln schlecht wird. Das Netz, aus dem die Daten bezogen werden, muss also die entsprechende Anzahl von Bildern pro Sekunde mit einer möglichst gleichbleibenden Latenz zur Verfügung stellen. Je geringer die Verzögerung, desto realer nimmt der Anwender die virtuellen Welten wahr.
Weiteres Beispiel als Blick in die Zukunft: das autonome Fahren, das der Mobilfunk sicherer machen könnte. Die Informationen, etwa wenn ein vorausfahrendes Fahrzeug hinter der Kuppe oder Kurve bremst, müssen blitzschnell durch die Netze fließen, verarbeitet und verteilt werden. So kann sich das nachfolgende Fahrzeug entsprechend verhalten, wenn es die Information rechtzeitig bekommen hat.
Rechenleistung nah zum Nutzer bringen
Ein wesentlicher Faktor für Low Latency ist daher „Nähe“. Das heißt: vermeiden, dass Daten um die halbe Welt zu zentralen Serverfarmen geschickt werden, von denen dann eine Antwort - viel zu spät - retour geht. Denn hier setzt die Physik Grenzen. Via Glasfaser sausen die Daten mit zwei Drittel der Lichtgeschwindigkeit durchs Netz, das sind 200 Kilometer pro Millisekunde. Für Anwendungen, die eine Latenzzeit von rund einer Millisekunde haben sollen, darf das Rechenzentrum also theoretisch maximal 100 Kilometer entfernt sein. Verzögerungen durch zwischengeschaltete Netzelemente und die Datenverarbeitung sind hier noch nicht eingerechnet.
Der Schlüssel zu Low Latency ist also, Rechenleistung nicht Hunderte von Kilometern vom Nutzer entfernt vorzuhalten, sondern möglichst nah bei ihm. Im Mobilfunknetz beispielsweise direkt an den Basisstationen oder in deren Umfeld. Um die Datenverarbeitung und Anwendungen in Zukunft näher zu den Kunden zu bringen und den künftigen Anforderungen ans Netz zu entsprechen, arbeitet die Telekom an der sogenannten "Edge Cloud". Mit deren Kapazitäten können neben der Rechenleistung verschiedenste Services dezentral verarbeitet werden. Je näher also das „Gehirn“, desto geringer die Reaktionszeit. Für einzelne Anwendungen wie das vernetzte Auto vielleicht dann nur noch eine Millisekunde.