Nachbericht Thüringer Mediensymposium 2023 - Teil 1

TMSP 2023 Tag 1 - Bilder Referenten

Am 9. und 10. November fand im STUDIOPARK KinderMedienZentrum in Erfurt die neue Auflage des Thüringer Mediensymposiums statt. Die beiden Programmschwerpunkte der insgesamt bereits 11. Veranstaltung dieser Reihe lagen in diesem Jahr auf IP-basierten Medieninfrastrukturen und auf der Nutzung von KI-Algorithmen in der Medienproduktion.


Bevor die beiden Regionalgruppenleiter Prof. Dr. Hans-Peter Schade (TU Ilmenau) und Klaus Sandig (MCS Team GmbH) zu Wort kamen, war erst einmal „Lisa“ mit der Begrüßungsrede dran: Sie zeigte eindrucksvoll, was heutige KI-Anwendungen bereits leisten können, wenn sie mit den richtigen Prompts gefüttert werden. Doch bevor es am zweiten Tag zum Themenblock „KI“ gehen sollte, standen erst einmal IP- und Cloud-basierte Infrastrukturen im Fokus.

TMSP Publikum Tag 1

 

Lisa sagt

Stärke der Cloud bei Live-Events, Format-Dschungel und Synchronisation

Eröffnet wurden die Vorträge durch Oliver Gorst (MCI). Er erläuterte auf Basis aktueller Erfahrungen, welche Möglichkeiten die Cloud für die Medienproduktion bietet und warf auch einen Blick in die „Rundfunkanstalt der Zukunft“. Dabei ging er zudem auf die mit der Nutzung Cloud-basierter Angebote einhergehenden Gesamtkosten ein. So spiele die Cloud gerade bei temporären Live-Produktionen ihre Stärken voll aus, was sie für diesen Anwendungsbereich attraktiv mache. Es wäre allerdings eine genaue Vorplanung für Cloud-Produkionen erforderlich und aktuelle Cloud-Produkte im Broadcast-Bereich böten noch wenig Flexibilität. Ziel sei es, mit kleinen Cloud-Produktionen Erfahrung zu sammeln.

Mit dem plakativen Titel „Wie man einen Ü-Wagen in drei Wochen baut“, ging Sebastian Manemann (LOGIC media solutions) im Anschluss daran, gängige Vorurteile in Bezug auf die Cloud-basierte Medienproduktion zu widerlegen und stellte drei praktische Anwendungsfälle bestehend aus UHD-Streaming, hybridem Editing und Cloud-Produktion vor, die mit Hilfe des PORTAL Framework von LOGIC umgesetzt wurden. Dabei zeige sich, dass hybride Medienworkflows nicht nur beim kurzfristigen Abbau von Lastspitzen helfen, sondern auch schnell, benutzerfreundlich und kosteneffizient umsetzbar seien.

John Mailhot (Imagine Communications), der federführend an der Standardisierung von ST2110 mitwirkte, versuchte in seinem Vortrag etwas Licht in den Formatdschungel zu bringen, der durch den Einsatz von IP-Netzwerken im Medienbereich und das dadurch mögliche Mischen von HD, 1080p und UHD, und zwar in SDR- als auch in HDR-Formaten, im selben Netzwerk entstanden ist. Zwar stellten die meisten Signale wie SD, HD oder 1080p für das Steuersystem kein Problem dar, unabhängig davon, ob über SDI oder IP. UHD-Signale seien jedoch eine Besonderheit, da HD-Equipment diese möglicherweise nicht richtig verarbeiten könne. Er zeigte auf, wie sich mit Hilfe des richtigen Routing-Ansatzes Fehler vermeiden lassen.

Die Analogie zum Märchen „Die Schöne und das Biest“ bemühte Hartmut Opfermann (Qvest) in seinem Vortrag zur Fehlersuche in der Synchronisation hybrider Broadcast-Umgebungen. Konkret ging es dabei um den Einsatz der beiden Synchronisationssignale Blackburst und PTP. Opfermann stellte die Regeln von beiden sowie ihre gegenseitigen Abhängigkeiten gegenüber und schloss typische Fehlerbilder und Methoden zur Fehlersuche an. So sei es sinnvoll, in hybriden Netzwerken durch verteilte Generatoren die Delay-Kompensations-Fähigkeiten von PTP zu nutzen und traditionelle Synchronisationssignale anstelle in den Grandmastern in separaten, PTP-synchronisierten Generatoren erzeugen.

Dynamische Produktionsumgebungen, Monitoring und Verschmelzung von IT und Broadcast

Wie der WDR den Aufbau einer Live-IP-Basisinfrastruktur vorantreibt, erklärte Jan Krusch. Man wolle wegkommen von isolierten Insellösungen, hin zu einer standardisierten Technologieplattform für alle Projekte im Bereich der linearen Produktion. Neben einer Optimierung des Aufwands für Betrieb und Support wolle man vor allem auch notwendige Migrationsszenarien möglichst minimieren. Dabei müsse man nicht nur die IP-Netze selbst, sondern auch Orchestrator und Endgeräte betrachten. Um die damit verbundene Komplexität zu handhaben, setze man auf Standard-IT-Tools wie Ansible, die eine weitreichende Automation ermöglichen.

Matthias Czastrau (Riedel Communications) zeigte am praktischen Beispiel, wie Systeme mit einer flexiblen Architektur aus Software und Hardware den Anforderungen an moderne Produktionsworkflows im Medien- und Eventbereich nachkommen, um so den produzierenden Gewerken das bestmögliche Ergebnis zu ermöglichen. Der Fokus lag dabei auf verteilten Architekturen, wie etwa im Bereich der Remote- und Cloud-Produktion, sowie der Architektur Software-basiertes Produktionstools. Es sei wichtig, die richtigen Tools für die richtigen Aufgaben auszuwählen und den Benutzer im Blick zu halten.

Anforderungen und Lösungsansätze an IP-Monitoring beleuchtete Sascha Schwoll (SWR). Dabei ging er zunächst auf die besonderen Anforderungen von IP-Netzwerken aus technischer und Prozess-Sicht ein und beleuchtete dann die erforderlichen Schritte zur Realisierung des zukünftigen Monitorings. Broadcast-Monitoring bestehe aus drei unterschiedlichen Bereichen: Der Überwachung der IT-Infrastruktur, der eigentlichen Broadcast-Infrastruktur und der   Datenflussüberwachung sowie dem Prozess und Workflow-Management. Diese beträfen verschiedene Geschäftsfelder, sodass es damit auch zu einer Verschmelzung von IT- und Broadcast-Engineering komme: Beide Bereiche müssten die Grundlagen des jeweils anderen verstehen.

Den Abschluss des ersten Tages bildete die Präsentation von Axel Kern (Lawo), der sich mit „Broadcast Production as a Service“ befasste. Heutige Produktionsumgebungen müssten flexibler und dynamischer auf sich ändernde Produktionsvorgaben reagieren. Neben dem Einsatz von IP- und Cloud-Technologien kommt auch Software-Anwendungen eine zentrale Bedeutung zu: „Media Functions“ sind Apps, die Audio- und Videoprozesse ausführen und auf Standard-CPU, GPU oder verteilt laufen und über einen Orchestrator dynamisch verwaltet werden. Sie kommen bei Bedarf zum Einsatz und verbrauchen Ressourcen nur bei tatsächlichem Betrieb. In Zukunft könnten die Entwicklung dahin gehen, dass sich mit geeigneten Standards solche App-Plattformen möglicherweise auch herstellerübergreifend einsetzen lassen.

-AB

Zum Bericht über Tag 2