End‐to‐ End-to-End IP: Enwicklungen in der Fernsehtechnik und deren Auswirkungen auf beleuchtungstechnische Systeme

Paul Flemming


Dipl. Ing. (FH) Paul Flemming ist seit 2015 Head des Design & Engineering Teams der ARRI Solutions Group. Die ARRI Solutions Group ist ein Bereich innerhalb von ARRI, verantwortlich für die Planung und Realisierung von komplexen lichttechnischen Lösungen weltweit mit dem Schwerpunkt Broadcast & Virtual Production.

In diesem Zusammenhang hat er die technischen Gesamtverantwortung der Projekte sowie die Zuständigkeit für die Entwicklung von Produktstrategien im Unternehmen für IP vernetzte Lösungen für die Lichttechnik und deren Integrationen in ganzheitliche Studioinfrastrukturen.

Kurzfassung des Vortrags No. 19


Wenn über Technologien und Workflows in der Fernsehtechnik gesprochen wird, wird meist über Bild-, Audio- oder Sendetechnik gesprochen, an Licht denk dabei meist niemand. Wenn wir nun über Trends in der Fernsehtechnik sprechen, können einige Punkte bereits etwas abgegriffen klingen, für die Beleuchtungstechnik beginnen sie teilweise erst an Bedeutung zu gewinnen. Paul Flemming, Heads of Projects der ARRI Solutions Group betrachtet Entwicklungen wie IP basierter Workflow, Ausfallsicherheit und Redundanzen, Workflow Automation sowie Interdisziplinäre Bedienkonzepte, näher auf Ihre Relevanz für Beleuchtungssysteme in der Fernsehtechnik.

24 Softwaredefiniertes Video-over-IP-System mit extrem niedriger Latenz und Kompression Der Trend, bei Studios, Broadcastern und Streamingdiensten dedizierte SDI-Leitungen durch IP-basierte Netzwerke zu ersetzen ist ungebrochen. Eine Video-over-IP Übertragung erfordert jedoch eine Abwägung zwischen Bandbreite, Latenz und Flexibilität der Implementierung. Niedrige Latenzzeiten bei gleichzeitig hohem Datendurchsatz sind besonders wichtig bei Live-Produktionen und wenn in hybriden Systemen SDI- und IP-basierte Technik zusammen betrieben wird.

Eine unkomprimierte Übertragung besitzt einen hohen Bandbreitenbedarf, während die zur Komprimierung erforderliche Verarbeitungszeit in der Regel zu einer höheren Latenz führt. Bei UHD-1- und UHD-2-Videos ist dies eine noch größere Herausforderung, denn unkomprimierte Videodaten erfordern hier leistungsstarke Ethernet-Netzwerke. Nutzt man dagegen Komprimierung, bietet der kürzlich bei der ISO standardisierte Bildcodec JPEG XS zwar eine sehr geringe algorithmische Latenz, diese kann in der Praxis aber nur mit speziellen Hardware-Implementierungen (FPGA, ASIC) auch realisiert werden.

In einigen Fällen sind jedoch Software-Implementierungen auf Standard-COTS (Commercial off the shelf) Geräten von Vorteil, um mehr Flexibilität zu ermöglichen. JPEG XS bietet dafür die Möglichkeit, sowohl bei der Komprimierung als auch bei der Dekomprimierung die zu verarbeitenden Daten auf mehrere Threads aufzuteilen. Dazu wird das Quellbild nach der anfänglichen Wavelet-Transformation in Scheiben (Slices) aufgeteilt, die unabhängig voneinander und damit parallel verarbeitet werden können. Die Aufteilung nach der Wavelet-Transformation verhindert, dass Slicegrenzen im dekodierten Bild störend sichtbar werden.

Diese parallele Verarbeitung bietet nicht nur einen skalierbaren, hohen Datendurchsatz auf Multicore Systemen, sondern ermöglicht es auch, ein softwarebasiertes Übertragungssystem mit geringer Latenz zu realisieren. Für eine Optimierung der Latenz muss allerdings darauf geachtet werden, wie die zu verarbeitenden Daten auf mehrere Threads verteilt werden und wie groß die Anzahl der Threads ist. Ferner muss in der gesamten Systemarchitektur jede Stufe im Datenpfad hinsichtlich ihres Beitrages zur Gesamtlatenz betrachtet und ggf. optimiert werden.

Dieser Beitrag gibt einen Überblick über JPEG XS und stellt eine Fallstudie vor, in der auf Basis von COTS Komponenten eine softwarebasierte UHD-1 Video-over-IP Übertragung realisiert wurde. Das System besteht aus einem Encoder Rechner mit einer SDI Capture Karte und einem Decoder Rechner mit einer SDI Playout Karte. Beide Rechner sind über 10Gb Ethernet verbunden, die IP Übertragung basiert auf RTP Paketen und folgt SMPTE ST 2110. Die JPEG XS En- und Dekodierung erfolgt ausschließlich in Software. Dabei wird eine Standardimplementierung mit einem optimierten Design verglichen, das eine Latenz von weit unter einem Bild ermöglicht.