Let’s stay linear, please.

Ich beobachte in letzter Zeit ständig, dass Leute uns den Einsatz von AI beim Filmemachen als etwas grundsätzlich Neues und kategorial anderes schmackhaft machen wollen. Das hat die arme AI aber weder nötig noch verdient. Jüngstes Beispiel: Eine Virtual-Production-Pipeline für eine MOSES-Serie mit Ben Kingsley, die die Zuspieler für die LED-Screens mit GenAI erzeugt und AI als MoCap-Tool einsetzt. Das ist alles sehr beeindruckend, aber ist es auch ein wirklicher Paradigmenwechsel?

Ein Beispiel: Der Editor fragt am Set nach einem weiteren Shot und bekommt ihn ruckzuck gedreht. Das verkauft uns der Produzent Jon Erwin von Wonder mal auf die Schnelle als „Non-Lineares Filmemachen“. Haben wir’s nicht auch eine Nummer kleiner? Wenn sowas geht, ist ja gut und schön. Aber als neues Paradigma führte das doch, wenn man es wirklich ernst nimmt, schnurstracks in die Apokalypse, wenn der Editor, meinetwegen auch der Regisseur selbst, erst beim Drehen entscheidet, welche Shots er/sie noch so braucht.

Darüber hinaus gab es diese spezielle Option doch beim linearen Realdreh auch schon immer: Was hat denn einen Regisseur am Set davon abgehalten, sich beim traditionellen Dreh eine weitere Einstellung auszudenken und schnell noch mitzudrehen? Ganz sicher nicht die Tatsache, dass er keine AI oder keine LED-CAVE hatte. Bottom Line: Das hat mit Non-linearem Filmemachen nix zu tun, das ist einfach Wichtigtuerei, pardon my French.

Ich erwähne das eigentlich nur, weil ich das selbst zu Anfang immer so verkauft habe und in Keynotes den traditionellen Ansatz einem neuen AI-Ansatz gegenübergestellt habe, in dem immer so ein schicker Kreis aus Feedback – Iteration – Optimierung – Feedback etc. zu sehen war. Hätte ich eigentlich auch „Non-linear Filmmaking“ drüberschreiben können. Ist aber Quatsch.

Was hat sich denn jetzt wirklich verändert beim AI-Filmemachen? Hier kommt der entscheidende Punkt: Man muss sich Dreharbeiten mal als unverzichtbaren Entscheidungsfindungs-Katalysator vorstellen und den Weg dahin, die Preproduktion, und den Weg danach, die Postproduktion, als komplexe Kette von aufeinander aufbauenden Entscheidungen.

  • (Prepro): „Wir müssen uns bis morgen für einen Darsteller entscheiden, damit wir in 14 Tagen jemanden am Set haben, mit dem wir drehen können.“
  • (Dreh): „Die Einstellung müssen wir jetzt genau so drehen, damit die Story so funktioniert, wie wir sie gescriptet und geboardet haben.“
  • (Post): „Die Einstellung haben wir genau so gedreht; zwar in 15 Varianten, aber eben genau so wie geboardet. Das ist unser Set an Optionen für den Schnitt, wir müssen uns für eine entscheiden, damit wir vom Schnitt in die Online weitergehen können.“

All das ist linear/unidirektional in dem Sinne, dass jede Entscheidung auf den vorangegangenen Entscheidungen aufbaut und dass der Weg zurück zum Anfang als Option ausgeschlossen ist. Dieser lineare Workflow ist entstanden, weil er einen gut händelbaren Rhythmus von Offenheit/Iteration und zu treffenden Entscheidungen etabliert, der das Vorwärtskommen beim Herstellen eines Films überhaupt erst möglich macht; und der zugleich eigentlich so simpel ist, dass er selbst Filmfremden leicht und schnell erklärbar ist:

  • Iteration/Offenheit PITCH: Regie interpretiert das Agenturskript.
  • Entscheidung: Vor Auftrag wird entschieden, welche Änderungsvorschläge von der Regie umgesetzt werden sollen.
  • Iteration/Offenheit PREPRO: Regie löst den Film in eine Shotlist auf; schlägt Location-Optionen, Styling-Optionen, Besetzungsoptionen vor.
  • Entscheidung: PPM verabschiedet Shotlist, Locations, Styling, Besetzung.
  • Iteration/Offenheit DREH: Regie dreht Varianten der Shotlist, verbessert, optimiert.
  • Entscheidung: Kunden nehmen Einstellungen und Shots am Dreh ab.
  • Iteration/Offenheit POST: Schnittvarianten; VFX-Versionen; Vertonung etc.
  • Entscheidung: Schnittabnahme, Online-Abnahme.

Die Linearität, die Unidirektionalität – wenn der Hauptdarsteller einmal besetzt ist, dann gibt es da kein Zurück mehr – ist dabei gar kein technisches oder kreatives Naturgesetz, sondern eine wirtschaftlich-logistische Notwendigkeit: Natürlich KÖNNTE man auch nach 3 Drehtagen noch den Hauptdarsteller umbesetzen. Francis Ford Coppola hat APOCALYPSE NOW auch mit Harvey Keitel als Hauptdarsteller begonnen und ihn nach zwei Wochen gegen Martin Sheen ausgetauscht. Kein Wunder, dass der ganze Spaß am Ende 30 Mio statt der kalkulierten 12 Mio gekostet hat. Aber die logistischen Konsequenzen und letztlich die Kosten einer solchen Entscheidung sind halt derart massiv, dass ich als Producer schon beim Lesen dieser Geschichte feuchte Hände bekomme.

Und jetzt kommt’s: Die Notwendigkeit für einen Dreh ist wegen generativer AI auf dem Weg, zu verschwinden. Klingt erstmal super! Weniger Kosten, weniger Aufwand, mehr Freiräume etc. Was aber nicht verschwinden wird, ist die Notwendigkeit für kreative Entscheidungen; sie wird eher größer werden, zum einen, weil mehr Iterationen möglich sind und weil es zum anderen noch viel zu wenig Profis gibt, die bei der kreativen Entscheidungsfindung helfen. Und ich meine Helfen im Sinne von „Vorfiltern“, nicht im Sinne von „noch tausend Optionen anbieten, die alle Mist sind“. Was wir mit einem DP oder einem Production Designer verlieren, wenn wir stattdessen irgendeinen „Ai Artist“ beschäftigen ist doch genau das: Daß uns jemand mit der Unendlichkeit von miesen Möglichkeiten verschont und uns die paar Optionen anbietet, die wirklich gut sind. Aber das kriegen wir schon in den Griff.

Viel wichtiger ist, dass die Notwendigkeit für die Einbindung von Kunden und Agenturen in die Entscheidungsfindung damit nicht verschwunden ist. Sie hat sich vielmehr vom Dreh losgelöst und wabert jetzt wie eine dunkle Wolke über dem gesamten AI-Filmherstellungsprozess und ergießt sich in gefühlt täglichen PPMs und Abstimmungsrunden. Dafür muss ganz schnell eine Lösung her, und die kann nicht sein, dass man jetzt das glückselige Zeitalter des Non-linearen Filmemachens ausruft. Im Gegenteil: Weil uns mit dem Dreh ein wichtiger linearer Entscheidungskatalysator abhanden gekommen ist, müssen wir neue lineare Prozesse etablieren, damit wir nicht Gefahr laufen, die Potenziale von AI zu verspielen.

Wir sollten den Anspruch an Linearität also nicht aufgeben, wenn wir nicht in Teufels Küche kommen wollen, jedenfalls nicht, solange der Kontroll- und Mitwirkungsanspruch von Kunden & Agenturen derselbe bleibt – und ich habe da so eine Ahnung, wie viel Potenzial dafür besteht, dass der sich ändert. Sag ich aber nicht.

Nennt mich Oldschool, aber mir fällt dazu nichts Besseres ein, als bis auf Weiteres so zu tun, als wäre AI-Filmmaking eben nichts anderes als Filmmaking, und als bedürfe es deshalb auch weiterhin derselben Abstimmungsprozederes. Auch wenn LinkedIn voll ist mit „guck mal, was ich in 5 Minuten für 5 Euro gemacht habe“, wird es dabei bleiben, dass der Weg hinter eine einmal getroffene Entscheidung zurück geradewegs in die tiefste Hölle führt, oder um es mit weniger Schaum vor dem Mund auszudrücken: zu Mehraufwand und ergo Mehrkosten, und das für alle Beteiligten. Und das kann man auch so formulieren ohne als Spielverderber rüberzukommen.

Soll heißen: In der Preproduktion stimmen wir Casting, Styling, Locations und Shotlist ab. Dann erzeugen wir, wenn wir denn in einem 100%-AI-Workflow sind, Stills/Keyframes, die wir abnehmen lassen, und zwar verbindlich. Und erst dann animieren wir diese Keyframes mit AI, und lassen uns auf Basis dieser animierten Frames einen Schnitt abnehmen, den wir dann endfertigen. Klingt total simpel, ist es aber erst dann, wenn man es hundertmal allen vorgetanzt hat und alle gesagt haben: „Ja, so machen wir das“ – und wenn keiner mehr nach der Online sagt: „Meine Frau hat das gestern angeschaut und gefragt, ob der Darsteller nicht einen Ferrari statt eines Motorrads fahren könne, mit AI geht das doch jetzt alles ganz einfach.“

PS: Wir müssen uns als Filmemacher natürlich auch selber am Riemen reißen und nicht rumtrompeten, jetzt wäre grundsätzlich alles für gar kein Geld möglich. Analog zu Ockhams Rasiermesser, das wir ja alle aus der Philosophie als heuristisches Prinzip kennen („Entitäten dürfen nicht über das Notwendige hinaus vermehrt werden“), formuliere ich abschließend mal für die Filmherstellung Paulys Rasiermesser: „Wenn es keinen grundsätzlich zu erwartenden Zugewinn gibt, dann soll man nicht mutwillig die Welt mit Iterationen zuballern.“ Und schon gar nicht – Paulys Rasiermesser Teil 2 – soll man das der Welt als Non-lineares Filmemachen verkaufen, bitteschön, dankeschön.

PPS: Ich weiß, dass es bei einigen Regisseuren und visionären Produzentinnen den Ansatz gibt, die ganze Workflow-Architektur der Werbung einreißen zu wollen, weil AI ja jetzt ganz andere Dinge ermögliche. „Ihr habt das als Medium nicht verstanden! Das ist dafür gar nicht gebaut.“ höre ich sie verzweifelt rufen. Ich glaube, dass diese Menschen sich über ihre eigenen Motive täuschen und dass sie Ursache und Wirkung verwechseln. Zu ihren eigenen Motiven gehört oft genug der nur allzu verständliche Überdruss am immer irgendwie zu engen Korsett des Filmemachens unter Werbebedingungen – ahnungslose Kunden, Agenturkreative, die sich für die besseren Regisseure halten etc. Darum haben sie eine diebische Freude an AI, weil sie glauben, mit deren Hilfe das ganze System verbessern, überwinden oder gar in die Luft jagen zu können.

Aber dieses System wird nicht mit einem neuen Medium oder Tool verschwinden. Man könnte genauso gut argumentieren, das heilige Medium FILM wäre auch nicht für die Werbung geschaffen worden, es könne doch so viel mehr, wenn man uns doch nur ließe etc. pp. Das Problem ist aber nicht das Medium, unsere Tools, das Problem sind die Gegebenheiten, die Konstellationen, in denen wir arbeiten. Und aus denen wird uns keine AI-Pipeline dieser Welt befreien, sorry für die schlechten Nachrichten, liebe Utopisten.

Der wahre Zugewinn ist aus meiner Sicht, dass man mit AI Dinge umsetzen kann, die vorher nicht möglich waren. Ich finde, es gibt schon genug zu tun damit, diesen Vorteil auszuschöpfen – da sind wir noch ganz am Anfang. Wenn wir uns dabei aus utopischen, aus marktschreierischen oder aus Entscheidungsunwilligkeitsgründen von der Linearität von Entscheidungen verabschieden, werden wir stattdessen im Treibsand ewiger Feedbackschleifen versinken.

Hervorgehoben

EXTRAS

Erinnert ihr Euch an Ricky Gervais‘ EXTRAS? Andy, der Statist, ist der Main Character, in dessen Kopf die Filmwelt komplett verkehrt herum steht: Regisseure, Stars, große Sets, spektakuläre Drehbücher sind sämtlich unwichtig. Wichtig ist allein Andy, das verkannte Genie, und EXTRAS kokettiert immer mit der Frage „Was, wenn er recht hätte?“ 

Ich muss immer an EXTRAS denken, wenn wieder jemand von der „Demokratisierung des Filmemachens durch AI“ fantasiert: Ja, man kann natürlich postulieren, dass die Welt voller verkannter Genies wie Andy sei, die vom System des Filmemachens maximal in die Rolle von Extras gepresst würden und jetzt endlich beweisen könnten, dass sie große Filmemacher sind. 

Vielleicht wird ja Filme Machen mehr wie Musik Machen in den Zeiten von AI. Wie Billy Eilish im Schlafzimmer Musik macht, die zu recht eimerweise Grammys abgreift, werden vielleicht bald ein paar Kids einen oscarwürdigen Film mit AI zusammenschrauben, die ohne AI keine Chance hätten, sich durch das aktuelle System durchzufighten. Vielleicht sind ja die aktuellen Systeme, in denen Filme entstehen, tatsächlich massive Gatekeeper, die tausendfach Talente aussieben und nicht zum Zuge kommen lassen etc. pp., googelt einfach mal „democratizing filmmaking“.

„Extras“ hat da eine skeptischere Perspektive für uns parat: Klar steckt das aktuelle System des Filme Machens voller Idiotie, Korruptheit und Crazyness. Aber die Andys dieser Welt müssen erstmal beweisen, dass sie – nicht nur in ihrem eigenen Kopf! – die besseren Stars, die besseren Regisseure und Filmemacher sind. Let the games begin!

Now that escalated quickly…

Ich habe grade das Potenzial von AI unterstützter Kreation am eigenen Leibe erfahren, und ich bin noch immer in shock: In einem Whatsapp-Gruppenchat hat eine Freundin den denkwürdigen Satz gedroppt: „Mein Mann ist auf Sylt, und ich bin über’n Dispo“. Fragt nicht, aber genau so stand es geschrieben. Wichtig daran ist eigentlich nur, dass das irgendein Satz in irgendeiner Whatsapp-Gruppe war. Ich fand das so hitverdächtig, daß ich SUNO damit gefüttert habe; und keine 10 Minuten später konnte ich bereits diesen potenziellen Chartstürmer in dieselbe WhatsApp Gruppe posten.

So ein Refrain hätte in den 90ern für einen top 40 Hit in Deutschland gereicht, und im Radio wäre es zwischen dem ganzen anderen Chart-Trash nicht groß aufgefallen. Stefan Raab hat wie einige andere eine ganze Musikindustrie-Karriere auf dieser Sorte Zeugs aufgebaut. Behaupte ich jetzt einfach mal, entrüstete Widersprüche bitte in die Kommentarspalten.

Aber damit war das noch nicht zu Ende. Die Freundin hat dann gleich noch einen Strophen-Text in der Gruppe gedroppt, den ich fix an eine andere Version desselben Refrains drangenagelt habe – et voilà! (Und ja: ihr müßt die Links klicken, weil ich zu geizig bin, für Audio- und Videointegration zu bezahlen.)

Das kann man ohne jede enthusiastische Übertreibung nur Kreation auf Speed nennen, und zwar aus mindestens vier Gründen:

1 SUPERPOWERS FÜR KAUM-WAS-KÖNNER: Das hat mir ermöglicht, Co-Creator von dieser Musik zu werden, jemandem, der etwas Vergleichbares mit klassischen Tools niemals hätte aufstellen können. Ich hatte mit 7 Jahren mal Blockflötenunterricht, das ist mein level of expertise.

2 VON MICROINSPIRATION ZUM PRODUKT IN 5 MINUTEN: Jede noch so abwegige Schnapsidee läßt sich mit Minimalaufwand auf ihre Produkttauglichkeit hin abklopfen. Hätte ich mit dieser „Idee“ ein Team von Musik-Profis beauftragt, ein Studio gebucht etc.? Nö. 

3 TURBOSPEED: Der Zeitaufwand dafür war geschätzt der hundertste Teil von dem, was jemand mit einem Profi-Ansatz dafür an Zeit aufgewendet hätte. Von Equipment, Vorbildung, Mitwirkenden etc. gar nicht erst zu reden. 

4 TONNENWEISE OUTPUT: Der Output von SUNO war jede Menge repetitives Zeug, das nicht gut genug war, nicht catchy genug, unorganisch etc, aber eben auch innerhalb von 30 Minuten diese beiden grundsoliden Nummern.

Jetzt kann man das Ergebnis schrottig finden, über den Humor nicht lachen und tausend andere Details bekritteln (Blockflötenunterricht mit 7, sag ich ja!). Man kann aber nicht darüber hinwegsehen, daß dieser mühelose Workflow und dessen beschriebene Effekte mehr als erstaunlich ist. Und das gilt eben nicht nur für generative Musik-AI.

Im Ernst: Ich kann jedem irgendwie in der Kreativindustrie tätigen Menschen nur dringend dazu raten, in dem Genre seiner/ihrer Wahl (Musik/Bilder/Bewegtbild) die dort verfügbaren generativen AI Tools mal durchzuspielen statt immer nur die Ergebnisse anzuschauen und „MEINUNGEN“ zu haben, und sich mal diesem atemberaubenden Beschleunigungseffekt auszusetzen. Husch-husch!

P.S.: MusicRadar hat grade die Info veröffentlicht, daß 2024 täglich mehr neue Musik released wird als im ganzen Jahr 1989. Und das sind noch die Auswirkungen der Digitalisierung der Produktions- und Distributionsprozesse seit den 90ern. Das ist noch gar nicht der AI Effekt: der kommt noch. 

P.P.S.: SUNO und UDIO werden zu Recht von der kompletten US Musikindustrie verklagt, weil sie ganz offensichtlich ihre Software an rechtebehafteter Musik trainiert haben, wie immer in diesen Fällen natürlich ohne zu fragen oder gar – wo kämen wir denn da hin! – zu bezahlen, weil „fair use“. Das stinkt natürlich zum Himmel.

P.P.P.S.: Wegen Verwerfungen im Raum/Zeitkontinuum (Okay: ich hab’s irgendwie im WORDPRESS Editor versemmelt…) lag dieser Beitrag ein Jahr lang unveröffentlicht rum, was bedeutet, dass das SUNO Modell hinter der Mukke schon 12 Monate alt ist. Urururalt. Habe grade in der aktuellen SUNO Version 4.5 ein cover anfertigen lassen innerhalb von ca. 40 Sekunden, das wollte ich Euch nicht vorenthalten: https://suno.com/s/3pc81651LmF6mdRt

Hervorgehoben

Die nächste Trainingsrunde: Jetzt müssen die Profis ran

Letztes Jahr habe ich mal eine obskure Firma ausgecheckt, die offensichtlich im großen Stil das Training von LLMs an jeden deutschen Muttersprachler ausgelagert hat, der irgendwie einen Internetzugang besaß (weitere Qualifikationen waren da nicht erforderlich). Das war so ein bisschen wie die „In Welchen Bildern Siehst Du Ein Fahrrad“ Puzzle, aber mit Text. Und überraschenderweise für echtes Geld. Komplett wirr und so chaotisch aufgesetzt, dass man sich nicht vorstellen konnte, wie aus so einem verkorksten Prozess irgendeine valide Information für irgendwas sich extrahieren lassen sollte, aber auch slightly unterhaltsam. Ich habe das nach zwei Stunden milden Interesses schnell meiner Tochter umgehängt, die damit ihr Taschengeld aufgebessert hat. Wenn ChatGPT also für euch manchmal wie ein 13-jähriges, sehr meinungsstarkes und dabei oft schlechtgelauntes Teenagermädchen klingt: Sorry, das war ich. 

Aber jetzt wird’s ernst! Die LLMs sind ja inzwischen offenbar mit allem trainiert, was nicht bei drei auf den Bäumen war – Internet ist alle. Benedict Evans hat grade diesen Bloomberg-Artikel verlinkt, der davon berichtet, dass OpenAI diversen Ex-Bankern 150 Dollar die Stunde zahlt dafür, dass sie OpenAI’s LLM beibringen, was da draußen im Netz nicht sowieso schon rumschwirrt. Aber Banker scheinen nicht die einzigen zu sein, die auf bisher unzugänglichen Informationen = Trainingsdaten hocken.

Wir hatten im Podcast ja mal den sehr schlauen Prof Björn Stockleben von der Filmuni Babelsberg zu Gast, der damals sehr zu meiner Beruhigung darauf hinwies, dass zwar die Regisseure, Editoren und DPs ein echtes Problem hätten, weil ihr Zeug tonnenweise und allgemein zugänglich im Netz zu finden sei und damit auch als Trainingsdaten für die gierigen Techkonzern-AIs zur Verfügung stünde; dass aber wir Producer mit unseren spezifischen Daten traditionell deutlich restriktiver umgingen – niemand kann sich bisher auf YouTube anschauen, wie man denn eine belastbare Kalkulation für drei Drehtage in Kapstadt für einen Autofilm aufsetzt. 

Das scheint inzwischen auch OpenAI oder irgendwelchen anderen Techkonzernen aufgefallen zu sein. Mein LinkedIn Channel wird seit Kurzem geflutet von „Jobangeboten“ einer Company namens MERCOR, die für AI Hersteller nach Experten aus unserer Domain sucht: Executive Producer, Film Production Specialist, Film Producer, Series Producer, Independent Filmmaker, Senior Producer, Line Producer, Producer, Screenwriter, Editor, Post Production Supervisor etc.* Worum geht’s? Darum, einer AI beizubringen, wie die genannten Jobs funktionieren. Da versucht also gerade ein AI Entwickler, im Bereich Film alles Wissen sich einzuverleiben, was er bisher aus YouTube, Netflix etc. noch nicht klauen extrahieren konnte.

Damit sind wir wieder am Anfang des Fear Cycles in Sachen AI: „How would you turn an AI model into an expert in your domain?“ ist der Titel des angedrohten AI Job Interviews. Oder anders formuliert: „Verrate uns, wie wir dich überflüssig machen können, im Internet haben wir leider zu wenig dazu gefunden“. Klingt irgendwie nach Verrat und sich-ins-eigene-Fleisch-schneiden, aber ich habe da mal ein Fax hingeschickt. Ich habe da ja schließlich einige goldene Weisheiten aus einigen Jahrzehnten gut abgehangenen Producerwissens zu bieten wie „Bleib Up Top Date damit, welches Restaurant deine Kunden wohl am Besten finden werden“ und „Immer 3% billiger anbieten als die Mitbewerber“. Mal sehen, ob sie rausrücken damit, in wessen Auftrag sie eigentlich unterwegs sind. Keeping you posted!

*Meine Lieblings-AI Gemini hat mir inzwischen verraten, daß die Company Mercor selbst wohl legit ist (mit 10 Milliarden USD bewertet; die Üblichen Verdächtigen Investoren wie Peter Thiel etc.). Aber jetzt kommt der Twist: diverse Applikanten haben bereits vermutet, daß die Ausschreibungen keine echten Jobs bewerben, sondern daß sie lediglich Mercors Interview-AI optimieren sollen. Klingt krank, aber nicht abwegig. 

**Ein weiterer Bloomberg-Artikel zum selben Thema: „Ex McKinsey Consultants are training models to replace them“

Implementation Gap

Ich sehe bei generativer AI einen massiven „Implementation Gap“.

Implementation Gap? Das erste Spülklosett wurde 1556 erfunden. Trotzdem gibt es im Jahr 2025 noch rund 550 Millionen Menschen allein in indien, die keins haben. Der Implementation Gap zwischen Erfindung und flächendeckender Verbreitung beträgt für Indien also fast 500 Jahre, and counting.

Dasselbe gilt für AI im Werbefilm. Der sehr schlaue Ethan Mollick, seines Zeichens Professor für Management in der Ivy-League-Schmiede Wharton, hat mal gesagt, selbst wenn in Sachen AI jegliche Innovation JETZT stoppen würde, würden Firmen – und das verallgemeinere ich mal auf uns als Ökosystem – mindestens 10 Jahre brauchen, um all das zu implementieren, was jetzt schon möglich ist.

Der Implementation Gap ist also mmerhin um den Faktor 50 kleiner als bei Spülklosetts, aber er ist ganz offensichtlich da.

Könnte man sich drum kümmern, wenn man Producer wäre, beispielsweise. 

Natürlich wäre es auch eine interessante Frage, ob der Fortschritt beim Filmemachen mit generativer AI tatsächlich so eindeutig ist wie der, wenn man nicht mehr hinter die eigene Hütte defäkieren muss, weil man jetzt ein Klo hat. Aber ich glaube die Frage haben leider bereits andere für uns entschieden, Freunde. Also los, chop chop!

Spare me yourselfie!

Warum sind diese AI-generierten Selfie/Vlog-Videos eigentlich so eine Sensation und Provokation? Der Humor, geschenkt. Daran kann’s nicht liegen. Steile These: Die sind deshalb so ein Stachel in meinem Fleisch, weil sie hinter dem vordergründigen Humor sich lustig machen über die Welten, die sie zusammenrühren und zugleich zu Grabe tragen, nämlich:

  1. Das Filmemachen mit fettem Production Value. Schaut Euch mal das Odysseus-Vlog an. Shots wie diese (vom bescheuerten ausgestreckten Selfie-Arm abgesehen) haben Wolfgang Petersen in Troja hunderttausende von Dollars beim Dreh und in der Post gekostet, die werden hier einfach mit VEO3 hintereinander weggeballert als wär nix.
  2. Die vermeintliche Authentizität des Vloggens. Der (müde) Witz ist ja nicht, dass Odysseus kein Iphone hatte. Der Witz ist, das Odysseus kein Iphone mehr BRAUCHT um Vlogs zu machen, weil es jetzt AI gibt. „There’s a joke here somewhere / and it’s on me“, wie Dr. Springsteen zu sagen pflegt.

Insofern ist das jenseits des Bru-Ha-Ha Effektes eine triumphale Geste, ein imperialer, raumgreifender Anspruch, den man aus Perspektive der generativen AI auch so formulieren könnte: Vielen Dank für all die Trainingsdaten aus hunderten von Sandalenfilmen und Milliarden an Selfies und Vlogs, ab jetzt machen wir das aber ohne Euch.

Aus meiner Perspektive, der ich eher bei den Sandalenfilmen als bei den Selfies zuhause bin, ist es ein kleiner, schadenfoher Trost, dass das unsägliche Social Media Gewackel, das uns so oft schon das Wasser abzugraben gedroht hat, jetzt selber zum Opfer des nächsten Innovationsschubs wird. Aber eben leider nur ein schwacher Trost.

Oh, und bitte keine weiteren AI Vlogs verlinken, I’ve seen it all, danke, reicht.

Spielräume

Klaro, alle arbeiten grade dran, AI in ihre Workflows zu integrieren (oder sie bereiten sich stattdessen auf eine hoffentlich komfortable Frührente vor, auch ein legitimes Ziel, aber dazwischen gibt es nicht so viele Optionen). Der simpelste Ansatz dabei ist ja, einfach überall da AI zu benutzen, wo sie schon gut genug ist, das zu ersetzen, was wir sonst so tun. Das ist quasi ein Reflex in einer Werbefilmproduktion: „Ah, da gibts was Neues, das geht besser, günstiger, einfacher, dann machen wir das jetzt so“ – wie in Boogie Nights, als Porno eben auf einmal auf Video gedreht wurde, und olle Burt Reynolds seufzend & schulterzuckend auf VHS umstellt, ist halt so.

Dass das aber mehr sein wird als der Umstieg von analog auf digital habe ich schon x-fach betont. Hier kommt eine sehr luzide Warnung von Regisseur Jonathan Vardi, die wir alle im Auge behalten sollten: „Wenn wir am alten System von Briefings, Decks, Storyboards und endlosen Freigaben festhalten und das lediglich mit KI-Unterstützung tun, steuern wir geradewegs auf die seelenloseste und mechanischste Version unseres Handwerks zu.“

Wenn ihr schonmal einmal eine Full-CG-Produktion gefahren habt, kennt ihr die Blaupause für das, was uns bevorstehen könnte. Say Goodbye zu dem Spaß und den Möglichkeitsräumen, die ein Live-Dreh eröffnet. Und ich spreche nicht nur von dem zynischen Approach „War zwar ein langweiliges Script, aber dafür haben wir in Brasilien gedreht“. Ich spreche davon, mit vielen multitalentierten Menschen gemeinsam etwas zu entwickeln und zu optimieren und dabei auch dem Zufall Raum zu geben, Momente zu erwischen, die man selbst nie so hätte kreieren können – ihr wisst, wovon ich spreche.

Wenn all das durch KI ersetzt wird, was gewinnen wir stattdessen? Der shitty part einer zukünftigen AI-gestützten Filmproduktion wird nicht der AI part werden, sondern das, was aus der alten Welt übrigbleibt, und der auf einmal DAS KOMPLETTE PROJEKT VERSCHLUCKEN WIRD: starre Briefings, Pixelschubserei, endlose Feedbackschleifen.

Wir müssen es beim Namen nennen: es geht um die Dynamik von Gestaltungsfreiheit und Macht, die hier ganz neu verhandelt werden wird. Aktuell sieht es doch so aus: Kunde und Agentur kommen mit einem Skript und dem Budget zu uns – die Macht liegt zu 100 % auf ihrer Seite (ja, denkt meinetwegen gerne auch an STAR WARS, wenn ihr „DIE MACHT“ lest). Kluge Agenturen bauen hier bereits genügend Interpretationsspielräume in ihre Skripte ein. Andere hingegen haben schon alles an Kunden, Tester und Marketingmechanismen delegiert – deren Skripte könnte man tatsächlich direkt in die KI werfen und fertigstellen lassen, da ohnehin schon alles bis ins kleinste Detail vorgegeben ist.

Doch sobald der Auftrag vergeben ist, verschiebt sich das Gefüge („Ich fühle eine Erschütterung der Macht“): Natürlich hat die Agentur das letzte kreative Wort und alles muss im Rahmen des Budgets bleiben. Aber ab diesem Zeitpunkt liegt die MACHT, die Entscheidungsgewalt über das Ergebnis bei Regie & Produktion. Und das gilt umso mehr, sobald der Dreh beginnt. Und ist nicht gerade das der reizvolle Teil unseres Jobs? Gute Agenturen und Kunden verstehen diese Dynamik und lassen sie zu, denn sonst könnten sie es ja auch selbst machen (aber das Ergebnis würde wahrscheinlich auch so aussehen…).

Die eigentliche Gefahr einer KI-gestützten Filmzukunft liegt also nicht etwa darin, dass Kunden ihre Filme selbst erstellen. Sondern darin, dass dieser Moment der Übergabe nicht mehr stattfindet, dass man uns nicht mehr gestalten lässt, sondern dass alles in einem Strudel aus Feedbackschleifen, Abnahmen, Pixelschubserei und Framefucking untergeht.

Anstatt also die Workflows einer Full-CG-Produktion eins zu eins zu kopieren, sollten wir uns bei der Integration von KI in die Werbefilmproduktion unter anderem fragen:

  • Was war bisher unmöglich, und was machen wir mit unseren ganz speziellen, filmemacherischen Erfahrungen jetzt dank AI möglich?
  • Wie erhalten wir uns dabei die kreativen Freiräume, die uns in unserem aktuellen Filmschaffen überhaupt ermöglichen, etwas Großartiges abzuliefern?
  • Wie überzeugen wir Kunden und Agenturen davon, dass genau das notwendig ist, um gute Filme zu machen?

Sonst gewinnt die dunkle Seite der Macht, und wir produzieren am Ende nur noch Malen nach Zahlen. Oder vielmehr: sonst dürfen wir die KI beim Malen nach Zahlen beaufsichtigen. Das wäre der Worst Case und glaubt mir, das gilt nicht nur für uns Filmschaffende, sondern auch für Kunden und Agenturen. Wir müssen es ihnen nur so sagen, dass sie es uns auch glauben. Schickt gerne einen Link zu diesem Post weiter – you are welcome!

SHRINKED

Grade die tolle Serie „Shrinked“ auf Apple TV geschaut. Habe mich schon öfter gefragt, warum psychiatrische Setups so gerne auf dem Bildschirm landen, und hier ist mein heimlicher Verdacht: Weil alle writer einen Dachschaden  Weil das billig zu produzieren ist! Talking Heads. Menschen in  einem Raum, die reden und reden, Schuß – Gegenschuß, zack, schon wieder 5 Minuten Screentime gefüllt, ohne daß eine Armee über die Alpen marschieren oder Aliens aus einem senkrecht über dem Ozean schwebenden Raumschiff aussteigen müssen. Was das spart!

Im Ernst: Warum ist FRIENDS in einem einzigen Set entstanden? (Okay, drei: zwei Wohnungen, ein Cafe?) Weil das BILLIG ist, Punkt. 

Aber dieser ökonomische Druck, möglichst viel & oft quasselnde Menschen in einem Setting abzufeiern, verschwindet mit dem Beginn von generativem AI Filmmaking, weil es der AI tendenziell egal ist, ob sie einen Planeten explodieren oder einen Menschen sprechen läßt. Um genau zu sein: im Moment sehen explodierende Planeten deutlich besser aus als sprechende Menschen… Das heisst aber, da verschieben sich auf Dauer ganz viele gelernte und praktizierte Prioritäten und Gewichtungen bezüglich PRODUCTION VALUE. Historische Stoffe? Viel zu viel Art Department Aufwand. Massenszenen? Arghh. Dreibeinige Monster? Lass mal lieber.

Ich kann mich noch gut daran erinnern, wie mir ein befreundeter Writer mal ganz stolz sein Serienfinale zeigte, in dem er zum ersten Mal einen Wohnungsbrand reinschreiben hatte dürfen. Feuer! In einer Wohnung! Irre. Da würde der AI Filmer sagen: „Wohnungsbrand? Warum nicht gleich die ganze Stadt abfackeln, be my guest!“

Mal gucken, ob damit auch der Hang zum Psychiatrischen in den Drehbüchern weniger wird – wäre andererseits natürlich tragisch, wenn Tony Soprano nie beim Shrink gelandet wäre. 

Hervorgehoben

Agentic Directing

Agentic AI soll ja das ganz große Ding für 2025 sein, aber ist da was in Sicht in Sachen Filmemachen?

Keine Agenten in Sicht, sag ich mal: Momentan sind AI Workflows verflucht komplexe Setups, bei denen schon jetzt diverse AIs zusammegestöpselt werden: mit Gemini einen Prompt schreiben, der mir in Midjourney das bestmögliche Bild macht; dann dieses Bild in die nächste AI füttern, sagen wir KLING, um eine Bewegtbildsequenz daraus zu erstellen; dann mit Elevenlabs vertonen etc.

Das kannst du dir per Hand puzzeln, das ist alle paar Tage neu; du kannst in Foren & mit Freunden heisse Tips austauschen was wofür am besten ist. Du kannst auch schon diverse Produkte nutzen, die bei der Integration der Arbeitsschritte helfen, Canvasses wie Flora oder Freepik, die viele AIs in einer Oberfläche zusammenführen; Suites wie LTX, die in einem integrierten System alle Arbeitsschritte des Filmschaffens zusammenführen – Storyboarding, Shoterstellung, Kameradirections, Grading, Edit etc…

Der neueste Shit:  ChatGPT und Gemini sind nicht mehr promptbasiert, sondern „conversational“ und integrieren Workflows in den generativen Prozeß wie „mach mal das Shirt anders“: sie sind also auf dem Weg von der Slot Machine – immer alles neu – hin zu einem non-destructive workflow, bei dem ich Details verändern kann anstatt immer wieder von Null zu starten.

ABER. Agentic? Was noch immer so ist, egal in welchem Ökosystem du da unterwegs bist: Du brauchst selber eine Vision, eine Idee. Und du mußt sie auch umsetzen, du mußt also Director sein, und deinen AIs directions geben. Aber wer ist schon ein Director? Moment, was war nochmal die große Prediction für 2025? Ach ja, das Jahr von Agentic AI.

Aktuell ist ja das Versprechen von AGENTIC AI eher, daß demnächst ein AI AGENT autonom meinen nächsten Trip nach Paris für mich organisiert, und dabei meine diätetischen & hoteltechnischen Vorlieben, Timingvorgaben und Airlinepräferenzen berücksichtigt, aber warum nicht einen Schritt weitergehen – was ist eigentlich mit AGENTIC DIRECTION?

Warum eigentlich kann ich nicht einen Regie-AI-Agenten trainieren? Einfach zwei Jahre lang alle Regie-Ratgeber, Filmhandbücher, Oscar-Filme, Making Ofs, Proseminar-Transkripte der HFF und Restaurant-Präferenzen für Barcelona füttern und LOS GEHT’S:

Liebe Regie-AI, hier ist meine Filmidee: „Aliens wollen Justin Bieber entführen, um auf ihrem Heimatplaneten eine Justin Bieber Mania auszulösen, entführen aber aus Versehen nur sein Karaoke-Lookalike, und dann bricht die Hölle los auf Bragulon Kappa“

So, kann ich das bitte einmal als Wes Anderson Film sehen? Oder nee, doch eher eine Tarrantino-Splatter-Komödie. Und jetzt doch eher mal so mit katholischen Schuldgefühlen als Scorcese-Drama. Schockt nicht. Lars Von Trier?

Wartet’s ab, genau so wird es kommen, und wenn nur deshalb, weil ich’s lustig fände. Mal sehn ob es dann noch `ne Producer-AI gibt, die beim Umsetzen hilft – wahrscheinlich auch wegrationalisiert – „Dafür reicht das Budget leider nicht“ kann die AI auch selber Feedbacken.

Weniger lustig: Ich glaube WIRKLICH, daß sowas kommen wird. Und ihr?

Der „Ted Lasso – Effekt“

Warum eigentlich sind 95% der AI Bewegtbildsachen in meinem Feed noch immer Schrott? Genauer: Bei Stills nähern wir uns Fotorealismus. Bei einzelnen Bewegtbild Shots wird’s schon ganz gut bis gut genug; nur ein ganzer (Werbe-)Film, und wenn nur 60 Sekunden, war bisher nicht in Sicht, und alle Versuche darüber waren inakzeptabel, die CocaCola Weihnachtsfilme sehr explizit eingeschlossen. Aber warum? Ich sage: Weil das zumeist von irgendwelchen Menschen kommt, die mit den Tools rumfummeln, aber nicht von Filmprofis. 

Das hat sich grade geändert. Sebastian Strasser hat einen Werbespot für Vodafone gemacht, der genau das will und zum großen Teil auch liefert, was zuvor schon die sagenwirmal 50 Vignettenfilme für Vodafone auch gemacht haben. 

Ich weiß, daß ihr jetzt meckern wollt. Ich habe 2 Millionen Beschwerden gelesen darüber wie schlecht der Film sei; die beziehen sich in Wahrheit sämtlich auf das Script. Whatever, sag ich da, ich bin kein Möchtegern-CD; ich bin Producer, ich finde also alle Skripte fantastisch. Agesehen von allem Detailgequengelkann ich als Producer zum ersten Mal Herrn Strassers Fazit teilen: „AI is here“!

Wie aber hat er es bloß geschafft, einen einigermaßen annehmbaren Film herzustellen? Ich möchte das den „TED LASSO – EFFEKT“ nennen: Jemand, der in seinem Metier richtig gut ist, überträgt sein Wissen, seine Methoden, seinen Geschmack, seine Workflows auf ein neues Metier. Wie Ted Lasso, der sich nur mit American Football auskennt, aus einem Haufen englischer Rumpelkicker eine gute Mannschaft macht, so hat Sebastian Strasser aus einem Haufen disparater, AI erzeugter Shots einen Film gemacht. Ted Lasso hat noch nicht die Meisterschaft gewonnen (ich bin noch in Staffel 2, kommt vielleicht noch), aber er ist auf einem vielversprechenden Weg. 

Ted Lasso hat keine Ahnung von Fußball, so wenig wie Seb Strasso von AI. Für viele Nerds vielleicht überraschend: Muß er auch nicht. Warum? Weil er seine Heads of Department hat, die sich auskennen, seine Subcoaches, und die Truppe von Fußballern, die wissen, wie man einen Ball kickt. Seb Strasso hat einen Creative Director, einen VFX Supervisor, eine Producerin, einen Editor, einen Grader, und jede Menge AI Artists und VFX Artists zum Reparieren von dem, was die AI versemmelt oder noch nicht hinbekommt. Er muß sich dafür nicht mit AI auskennen, das kann sogar hinderlich sein. Er muß vielmehr eine Vision für den Film haben. Sonst würden alle ohne einen gescheiten Coach im Nebel stochern und einen Ansammlung disparater Shots hintereinanderballern, aber keinen Film entstehen lassen.

Und umgekehrt: Regisseur und Midjourney und Runway werden auch keinen Film auf die Beine stellen; dafür braucht das AI Handling einfach viel zu viel Spezialwissen, was mit Regie Führen zero zu tun hat. Das übersieht man nur gern, weil die Tools so tun, als wenn sie nur ein bisschen Textprompting bräuchten. Ist natürlich Quatsch. Eine Slotmachine macht keinen Film, auch nicht wenn einer am Hebel zieht, der sich stolz Slot Machine Operator nennt.

Sebastian Strasser selbst hat auf dem Ciclope Festival davon berichtet, wie der Film entstanden ist, und das Interessanteste für mich war dabei, wie sehr er „einfach“ wie ein Regisseur da rangegangen ist, und eben nicht wie ein AI Nerd:

Er hat ein Storyboard gemacht; er hat eine riesige Cast Base sich aufgebaut an AI Darstellern (und war begeistert davon, daß er jetzt endlich seine DarstellerInnen zu 100% so bekommt, wie er sie möchte); er hat Räume und Welten und Hintergründe bauen lassen und durchgetauscht; er hat Shots generieren lassen ohne Ende, garantiert viiiiiel zu viele aus Producersicht; er hat seine AI Artists mit Filmbeispielen getriezt („Nein, Nein, der Raum muß viel mehr aussehen wie bei Cassavetes!“) und sich gewundert, daß die gar nicht wussten, wovon er redet; er hat alles in VFX basteln lassen was die AI versemmelt hat; er hat eine Riesentruppe an Spezialisten zusammengetrommelt, er hat nochmal auf Film ausbelichtet weil das irgendwie geiler aussieht (Der Look, das Grain, ihr wißt schon), selbst das persönliche Drama durfte nicht fehlen: Zwischendurch mußte der Director, so berichtet er, ins Krankenhaus gefahren werden, weil er nur noch Rechtecke gesehen habe. 

Wie klingt das für Euch? Was soll ich sagen: eigentlich alles wie immer, ob mit oder ohne AI – und mir scheint, daß erst und vor allem dieses „alles wie immer“ dazu geführt hat, daß dieser AI-Film am Ende auch ein Film geworden ist. More to come, nehme ich mal an.