Rückschau auf das 4. Münchner KI-Symposium 2023

4. Münchner KI-Symposium HFF/FKTG - Prof. Dr. Sylvia Rothe bei der Einführung

Am Montag, den 20. November 2023, fand bereits zum vierten Mal das Münchner KI-Symposium statt, eine erneute Zusammenarbeit zwischen der HFF - Hochschule für Fernsehen und Film München und der FKTG. Die Veranstaltung bot Raum für Einblicke in die Welt der künstlichen Intelligenz und deren vielseitige Einflüsse auf die Medienbranche in Text, Bild und Ton.


Die Begrüßung und Einführung übernahm Prof. Dr. Sylvia Rothe von der HFF München (Bild oben). Sie zeigte auf, wie stark das Interesse an KI-Anwendungen seit der letzten Veranstaltung 2022 gestiegen ist Unter anderem zeigte sie aktuelle Beispiele aus dem Bereich der Bildgenerierung und Videogenerierung aus Bild und Text. Inzwischen habe KI bereits in alle Teile der Filmproduktion Einzug gehalten.

Träume, Drehbuchentwicklung, synthetische Stimmen und musikalische Cyborgs

Danach gab es einen Einblick in einige KI-Projekte aus Forschung und Lehre der HFF. Hierzu gehörte unter anderem „Collective Dreamer“ von Studierenden der HFF und LMU München. Das Projekt soll KI durch Träume und Geschichten erfahrbahr machen. Dazu wurde im Rahmen einer Installation eine „Figur“ in die Mitte einer Kuppel gestellt und die Gäste konnten dieser ihre Geschichten erzählen. die Figur hat dann eine Schnittmenge aus allen so zusammengekommenen Geschichten generiert und in Echtzeit an die Innenseite der Kuppel projiziert. Dazu kam die Spracherkennungs-Software Whisper zum Einsatz, welche die erzählten Geschichten in englischen Text umwandelte. Das Ergebnis wurde mit einem speziellen Prompt zur Vermischung der Geschichten an ChatGPT weitergegeben. Der Output von ChatGPT wurde dann mit Stable Diffusion zur Erzeugung des Bildmaterials verwendet, das letztendlich an die Kuppel projiziert wurde.

Collective Dreamer

Präsentation "Collective Dreamer"

Sebastian Burgkart präsentierte im Anschluss sein Projekt „AI: Drehbuch-Entwicklung leicht gemacht?“. Er berichtete zunächst von seinen Erfahrungen beim Einsatz von ChatGPT. Für ihn hatten die damit generierten Drehbuchelemente nichts mit ihm zu tun. Daher hat er selbst die Anwendung wrAlter geschrieben, die auf dem iPad läuft und die vier Phasen der Drehbuchentwicklung abdeckt: Ideation, Struktur, Refinement, Export. Die KI ordnet dabei die im ersten Schritt entwickelten Ideen, greift aber nicht zu sehr in die eigenen Ideen ein. Denn es soll laut Burgkart um Textmanipulation, nicht Textgeneration gehen. Der Drehbuchautor bzw. die Drehbuchautorin bleibt also immer zentral im Entscheidungsprozess der kreativen Ideen.

Auch der Audio-Bereich kam nicht zu kurz. So sprach Danilo Pejakovic über die Verwendung synthetischer Stimmen in der Filmproduktion referierte. Dazu zeigte er praktische Beispiele, was mit Hilfe synthetischer Stimmen bereits möglich ist und wie nach sie etwa am Originalsprecher liegen. Dabei ging er unter anderem auf die Glaubwürdigkeit und Akzeptanz synthetischer Medien im Kontext von KI ein. Ein Thema, dass er in einer Studie für seine Masterarbeit verfolgte.

Prof. Dr. Sebastian Trump untersuchte die harmonische Verbindung zwischen Mensch und KI durch musikalische Improvisationen. So ging es im Projekt Spirio Sessions aus 2021 um ein spontanes Zusammenspielen zwischen einem vom Menschen gespielten Saxophon mit einem digital-analogen Hybridflügel. Dabei analysierten Softwaremodule das Gehörte und reagierten darauf. Es ging laut Trump nicht darum, zu interpretieren, wie Menschen Musik machen, sondern um neue musikalische Interpretationen der Maschine. Die KI hat also viel mehr Autonomie und wird zu einem Co-Creator. Trump sprach bei dem menschlich-maschinellen Zusammenspiel auch von musikalischen Cyborgs.

Urheberrecht, Umgang mit Bias und Virtual Production

Prof. Dr. Heidrun Huber beleuchtete die komplexen Aspekte von KI und Urheberrecht. Das Urheberrecht umfasse persönliche geistige Schöpfungen, die nur von einem Menschen geschaffen werden könnten. Grundsätzlich können Menschen geistige Schöpfungen auch mit Hilfe von Technologie schaffen, jedoch komme es auf den Grad der Einflussnahme an. Da die Ki aber willkürliche Inhalte ausgibt, reicht der Prompt für eine Urheberschaft oder Leistungsschutzrechte nicht aus, egal wie ausführlich er geschrieben wurde. Da Webscrawler die KI mit Daten „gefüttert“ hatte und dabei auch urheberrechtlich geschütztes Material verwendet wurde, besteht die Gefahr, dass bei wörtlicher Übernahme des Ki-generierten Texts eine Urheberrechtsverletztung vorliegt. Der neue AI Act der EU soll Abhilfe schaffen, da KI-Unternehmen dann ihre Trainingsdaten dokumentieren und offenlegen müssen. Derzeit ist die Übernahme eines bestimmten Stils eines Künstlers gestattet, wenn er nicht zu starke Ähnlichkeiten mit real existierenden Kunstwerken des Künstlers aufweist.

Der Vortrag von Habiba Sarhan mit dem Titel „Beyond Algorithms: How can we create a voice for the voiceless?“ zeigte wie KI- bzw. computergestützte Systeme Benachteiligungen  und Vorurteile ähnlich dem Menschen „nachahmen“, weil diese als Muster ihren Weg in den Algorithmus gefunden hatten. Dazu stellte sie unter anderem Beispiele KI-generierter Bildbeschreibungen vor, die nicht die im Bild gezeigte Realität darstellen, sondern teils halluzinieren, teils verharmlosen oder bestimmte wichtige Informationen einfach weglassen. Sie stellte klar wie schwierig es ist, Biases zu belegen. Zwar seien die Ergebnisse KI-generierter Bildbeschreibungen im Laufe der Zeit besser geworden, doch müsste sich jeder Einzelne darüber klar sein, dass bestimmte Gruppen immer noch marginalisiert würden.

Habiba Sarhan

Präsentation von Habiba Sarhan

Die Veranstaltung präsentierte auch die neuesten Erkenntnisse im Bereich der KI-gestützten Virtual Production für Kurzfilme, wobei Mick Mahler spannende Einblicke gewährte. Mahler experimentierte mit Ki-Tools bereits entlang des gesamten Workflows, von der Idee über das Drehbuch, die Entwicklung der Charaktere bis hin zur Modellierung. In seinem Vortrag griff er Beispiele aus aktuellen, unter Einsatz von Virtual Production entstandenen Projekten auf, darunter The Mandalorian oder Avatar. So sei etwa der Einsatz eines 3D-Modells des Sets auf 3D-Bildwänden vorteilhafter als die Nutzung eines Green Screens, da die Schauspieler ein besseres Gefühl für den Ort bekämen und auch Nachbereitung einfacher werde. In diesem Zusammenhang stellte er unter anderem die Anwendung Skyblocks von Blockade Labs vor, mit deren Hilfe 360-Grad-Bilder generiert werden können, oder die App CamTrack AR, die sich selbst als ein Virtual Production Studio für das Smartphone präsentiert.

Das Münchner KI-Symposium erwies sich erneut als wichtige Plattform für den Austausch von Ideen, Forschungsergebnissen und kreativen Ansätzen im Bereich der künstlichen Intelligenz. Die Veranstaltung trug dazu bei, die Brücke zwischen Lehre, Forschung und praktischer Anwendung von KI in der Medienlandschaft zu schlagen und inspirierte die Teilnehmenden, sich weiterhin mit den faszinierenden Möglichkeiten dieser Technologie auseinanderzusetzen.

-AB
Bilder: Screenshots der Veranstaltung