CORDIS - Forschungsergebnisse der EU
CORDIS

Article Category

Story
Inhalt archiviert am 2024-04-23

Article available in the following languages:

Feature Stories - Video-Streaming 2.0: ein innovativer Ansatz

Heutzutage ist Video-Streaming - Neudeutsch für die kontinuierliche Übertragung von Videodateien - einfach überall im Gange: zu Hause, im Büro und in zunehmendem Maße auch auf dem Smartphone. Aber es läuft bei weitem noch nicht perfekt. Das Streaming von Videodateien bleibt bandbreitenintensiv und fehleranfällig, egal ob es zu Zwecken der Unterhaltung, der Telepräsenz oder in der Videotelefonie eingesetzt wird. EU-finanzierte Forscher sorgen nun für ein reibungsloseres, klareres und einfacher zu handhabendes Seherlebnis auf jedem Gerät.

Digitale Wirtschaft icon Digitale Wirtschaft

Innerhalb der letzten Jahre hat es im Bereich Videostreaming ein geradezu explosives Wachstum gegeben, was in hohem Maße auf Videoportale und Videoanwendungen in Telefongesprächen zurückzuführen ist. Rund die Hälfte des gesamten Internetverkehrs entfällt bereits auf die kontinuierliche Übertragung von Videodateien; dieser Sektor wird voraussichtlich innerhalb der nächsten paar Jahre einen Anteil von 80 Prozent überschreiten. Und während ein Großteil der Videos immer noch auf PCs und Fernsehern im häuslichen Bereich und in Büros laufen, wird man auch ziemlich viele bewegte Bilder auf einem zunehmend breiten Spektrum von mobilen Geräten anschauen: Vom Zweizoll-Bildschirm des allerkleinsten Smartphones bis zu den neun Zoll eines Tablet-PCs oder dem 21-Zoll-Laptop. Von noch größerer Bedeutung ist, dass vieles davon kabellos übertragen werden wird - in WiFi-Netzen, über WiMax oder insbesondere über den 3G- und 4G-Mobilfunk - und die Dateien werden in einer Vielzahl von Formen und Größen, in unterschiedlichen Formaten, Codes, Bildfrequenzen, Qualitäten und so weiter daherkommen. Dieser Mix aus verschiedenartigen Geräten, Übertragungsverfahren und -formaten für verschiedene multimediale Inhalte ist die größte Herausforderung an die Ingenieure bei dem Versuch, der zunehmenden Nachfrage nach audiovisuellen Anwendungen und Diensten von immer mehr mobilen Nutzern Herr zu werden. Es ist eine wirklich große Aufgabe, die allerdings durch ein grundlegendes Umdenken in Bezug auf die Art, wie Videostreaming zu kodieren und zu übertragen ist, gelöst werden kann, wie die Forscher des EU-finanzierten Optimix-Projekts ("Optimisation of Multimedia over wireless IP links via X-layer design",) zeigen konnten. Die Optimix-Forscher entwickelten innovative Lösungen, die ein besseres Video-Streaming in einem Punkt-zu-Mehrpunkt-Kontext für IP-basierte drahtlose heterogene Systeme ermöglichen. Tests haben bewiesen, dass die resultierenden Verbesserungen der Videoqualität ganz erheblich sind und einen Punkt erreichen, an dem die Betrachter in vielen Fällen überhaupt nicht mehr zwischen dem gestreamten und dem ursprünglichen Video unterscheiden können. "Jeder Nutzer wird von nahtlosen Erfahrungen mit Multimediaanwendungen und -dienstleistungen profitieren können. Vollständigkeit und Unversehrtheit der übertragenen Medien sollten überall und jederzeit bewahrt werden", erklärt Roberta Fracchia vom Projekt Optimix, Programmmanagerin bei Thales Communications and Security in Frankreich. "Miteinander verbundene Verbraucher werden außerdem erwarten, die Inhalte unter Freunden frei und unkompliziert zwischen den Geräten übertragen und austauschen zu können. Sie werden fordern, dass die Inhalte auf jedem beliebigen Gerät angesteuert und in einem zukunftssicheren Format wiedergegeben werden können - und zwar ganz unabhängig davon, welches Gerät zur Aufnahme, Speicherung oder Bearbeitung der Inhalte verwendet wurde." "Der derzeit verfolgte Ansatz setzt auf traditionelle Auftrennverfahren, aber konzentriert man sich auf Dienstleistungen, die über homogene Netzwerke zur Verfügung gestellt werden, so können die bestehenden Forderungen nach der Aufrechterhaltung der erforderlichen Servicequalität für Nutzer, die unterschiedliche Bedürfnisse und Anforderungen haben, nicht erfüllt werden", gibt Dr. Fracchia zu bedenken. Aus Netzwerken und Geräten das Beste herausholen Seitdem das erste Mal ein Video gestreamt, d. h. kontinuierlich übertragen wurde, ist die Trennung zwischen der Kodierung, dem Übertragungsmedium und dem Endgerät, auf dem es angeschaut wird, die übliche Praxis gewesen. Über homogene Punkt-zu-Punkt-Netzwerke (wie etwa von einem Server zu einem PC zu Hause) funktioniert dieser Ansatz prima, kann allerdings nicht die Anforderungen einer Punkt-zu-Mehrpunkt-Übertragungsumgebung erfüllen, in der Netzwerke, Geräte und Inhalte zunehmend heterogener werden. Grob vereinfacht dargestellt, besteht ein Streaming-Video nach dem Trennungskonzept aus einer Kodierung des Inhalts an der Quelle in ein Übertragungsformat wie MPEG und einem Kanalcode, der an dem realen Gerät vorliegt und Fehler korrigiert, wie sie durch Rauschen oder Schwankungen in der Bandbreite verursacht werden. Typischerweise werden Quellenkodierung und Kanalkodierung separat durchgeführt: so weiß oft die linke Hand nicht, was die rechte eigentlich tut. Das Ende vom Lied ist, dass die Qualität des gestreamten Videos nicht immer optimal für das gerade zum Anschauen genutzte Gerät ist, da die Quelle keine Ahnung von den Fähigkeiten des betreffenden Geräts oder Netzwerks hat. Und so können die Videostreams weder nahtlos von einem Gerät zum anderen noch vom PC zu Hause auf das mobile Gerät, das man überallhin mitnimmt, weitergereicht werden. Um dies möglich zu machen, müssen die beiden "Hände" jeweils wissen, was die andere tut. Ein erster Schritt in diese Richtung wurde unternommen, indem man innerhalb des http://www.ist-phoenix.org/ (Phoenix-Projekts) - Vorgänger von Optimix - die Technik der gemeinsamen Quellen- und Kanalkodierung (Joint Source Channel Coding/Decoding, JSCC/D) perfektionierte. Die Phoenix-Forscher entwickelten ein umfassendes gemeinsames Quellen- und Kanalkodierungs- und Dekodierungssystem, das eine Kodierung direkt einstellen kann, um entweder eine bessere Qualität bei gleicher Bandbreite oder die gleiche Qualität über eine geringere Bandbreite anzubieten. Die Optimix-Forscher brachten den gemeinsamen Ansatz sogar noch weiter voran, indem sie alle wichtigen Elemente in der Übertragungskette - von der Videokodierung und den Netzwerkmodulen bis in die MAC-Schicht und die physikalische Schicht - dazu bringen, durch die Nutzung gemeinsamer Controller auf der Serverseite und Beobachter der mobilen Einheiten seitens des Kunden miteinander zu kommunizieren. Serverseitig wird das Streaming von einem Master Application Controller (MAC) gesteuert, während die Daten des Kunden von einem Controller der Basisstation bearbeitet werden. Diese sind über ein Triggergerät gekoppelt, das Informationen zwischen dem Server, den Basisstationen und den Kunden austauscht. Die Controller stimmen durch die gemeinsame Optimierung all der verschiedenen Übertragungsschichten die Parameter zum Multimedia-Streaming ab und sorgen für die bei den verschiedenen Empfängern erreichbare bestmögliche Leistung, da die verfügbaren Ressourcen der Netze und Geräte effizient ausgenutzt werden. "Die absehbar stärkeren Kommunikationsleistungen zukünftiger Mobilgeräte sind damit verbunden, das sie andere Spezifikationen und Parameter in Bezug auf die Fähigkeiten zur Multimediapräsentation (z. B. Multimedia-Rechenleistung, Bildschirmgröße oder Audiofunktionen) haben. Derartige Parameter werden dann die Multimediaqualität bestimmen, die das Mobilgerät letztlich erreichen kann", erläutert Dr. Fracchia. Tests, bei denen mit MPEG-4-Standard kodierter Inhalt verwendet wurde, demonstrierten nach einer Umsetzung des Optimix-Systems bemerkenswerte Verbesserungen. Die Forscher untersuchten insbesondere das "Spitzen-Signalrauschverhältnis" (peak signal-to-noise ratio, PSNR), das Verhältnis der maximal möglichen Leistung eines Signals zur mittleren Rauschleistung des Störsignals, das die Wiedergabetreue beeinflusst und in Dezibel (dB) gemessen wird. Schon allein bei Nutzung des Master Application Controllers hatten 90 Prozent der Datenübertragungsblöcke ein PSNR von über 25dB, während ein vollständig optimiertes Schema darin resultierte, dass 90 Prozent der Frames über 30dB erreichten - was weitaus besser als bei allen herkömmlichen Streaming-Techniken ist. Testzuschauer an der Kingston University in London und an der Universität Budapest, die gebeten wurden, sowohl das Originalvideo als auch die gestreamte Version anzusehen, konnten oft keinerlei Unterschied zwischen diesen ausmachen. "Die Ergebnisse zeigten bei allen betrachteten Videosequenzen die offensichtlichen Vorteile der Optimix-Lösungen", betont Dr. Fracchia. Die Optimix-Forscher leisteten auf Grundlage ihrer Arbeit Beiträge zu mehreren audiovisuellen Standardisierungsgremien, wozu das Joint Collaborative Team on Video Coding (JCT-VC), die ISO/IEC Moving Picture Experts Group (MPEG) und die ITU-T Video Coding Experts Group (VCEG) sowie die Internet Engineering Task Force (IETF) gehören. Sie hoben außerdem ein Folgeprojekt aus der Taufe: Concerto , das die Optimierung des drahtlosen Video-Streaming für Anwendungen im Gesundheitswesen zum Schwerpunkt hat, bei denen Zuverlässigkeit, Videoqualität und -verzögerung wichtige Fragen sind, um eine einwandfreie medizinische Diagnose gewährleisten zu können. Optimix erhielt innerhalb des Themenbereichs "Vernetzte Medien" des Siebten EU-Rahmenprogramms (RP7) der Europäischen Kommission Mittel in Höhe von 3,71 Mio. EUR. Nützliche Links: - "Optimisation of Multimedia over wireless IP links via X-layer design", Optimix-Website - Optimix-Projektfactsheet auf CORDIS - "Jointly optimising multimedia transmission in IP based wireless networks", Phoenix-Website - Phoenix-Projektfactsheet auf CORDIS - Concerto-Projektfactsheet auf CORDIS Weiterführende Artikel: - Bandwidth gets 50% boost, Phoenix-Projekt auf ICT Results - OMEGA bei der Beschleunigung der Datenübertragung ganz vorn - Raketengleiche Kommunikation - MUSE trägt zum Fortschritt der Breitbandtechnologie in Europa bei