Hervorgehoben

Spielräume

Klaro, alle arbeiten grade dran, AI in ihre Workflows zu integrieren (oder sie bereiten sich stattdessen auf eine hoffentlich komfortable Frührente vor, auch ein legitimes Ziel, aber dazwischen gibt es nicht so viele Optionen). Der simpelste Ansatz dabei ist ja, einfach überall da AI zu benutzen, wo sie schon gut genug ist, das zu ersetzen, was wir sonst so tun. Das ist quasi ein Reflex in einer Werbefilmproduktion: „Ah, da gibts was Neues, das geht besser, günstiger, einfacher, dann machen wir das jetzt so“ – wie in Boogie Nights, als Porno eben auf einmal auf Video gedreht wurde, und olle Burt Reynolds seufzend & schulterzuckend auf VHS umstellt, ist halt so.

Dass das aber mehr sein wird als der Umstieg von analog auf digital habe ich schon x-fach betont. Hier kommt eine sehr luzide Warnung von Regisseur Jonathan Vardi, die wir alle im Auge behalten sollten: „Wenn wir am alten System von Briefings, Decks, Storyboards und endlosen Freigaben festhalten und das lediglich mit KI-Unterstützung tun, steuern wir geradewegs auf die seelenloseste und mechanischste Version unseres Handwerks zu.“

Wenn ihr schonmal einmal eine Full-CG-Produktion gefahren habt, kennt ihr die Blaupause für das, was uns bevorstehen könnte. Say Goodbye zu dem Spaß und den Möglichkeitsräumen, die ein Live-Dreh eröffnet. Und ich spreche nicht nur von dem zynischen Approach „War zwar ein langweiliges Script, aber dafür haben wir in Brasilien gedreht“. Ich spreche davon, mit vielen multitalentierten Menschen gemeinsam etwas zu entwickeln und zu optimieren und dabei auch dem Zufall Raum zu geben, Momente zu erwischen, die man selbst nie so hätte kreieren können – ihr wisst, wovon ich spreche.

Wenn all das durch KI ersetzt wird, was gewinnen wir stattdessen? Der shitty part einer zukünftigen AI-gestützten Filmproduktion wird nicht der AI part werden, sondern das, was aus der alten Welt übrigbleibt, und der auf einmal DAS KOMPLETTE PROJEKT VERSCHLUCKEN WIRD: starre Briefings, Pixelschubserei, endlose Feedbackschleifen.

Wir müssen es beim Namen nennen: es geht um die Dynamik von Gestaltungsfreiheit und Macht, die hier ganz neu verhandelt werden wird. Aktuell sieht es doch so aus: Kunde und Agentur kommen mit einem Skript und dem Budget zu uns – die Macht liegt zu 100 % auf ihrer Seite (ja, denkt meinetwegen gerne auch an STAR WARS, wenn ihr „DIE MACHT“ lest). Kluge Agenturen bauen hier bereits genügend Interpretationsspielräume in ihre Skripte ein. Andere hingegen haben schon alles an Kunden, Tester und Marketingmechanismen delegiert – deren Skripte könnte man tatsächlich direkt in die KI werfen und fertigstellen lassen, da ohnehin schon alles bis ins kleinste Detail vorgegeben ist.

Doch sobald der Auftrag vergeben ist, verschiebt sich das Gefüge („Ich fühle eine Erschütterung der Macht“): Natürlich hat die Agentur das letzte kreative Wort und alles muss im Rahmen des Budgets bleiben. Aber ab diesem Zeitpunkt liegt die MACHT, die Entscheidungsgewalt über das Ergebnis bei Regie & Produktion. Und das gilt umso mehr, sobald der Dreh beginnt. Und ist nicht gerade das der reizvolle Teil unseres Jobs? Gute Agenturen und Kunden verstehen diese Dynamik und lassen sie zu, denn sonst könnten sie es ja auch selbst machen (aber das Ergebnis würde wahrscheinlich auch so aussehen…).

Die eigentliche Gefahr einer KI-gestützten Filmzukunft liegt also nicht etwa darin, dass Kunden ihre Filme selbst erstellen. Sondern darin, dass dieser Moment der Übergabe nicht mehr stattfindet, dass man uns nicht mehr gestalten lässt, sondern dass alles in einem Strudel aus Feedbackschleifen, Abnahmen, Pixelschubserei und Framefucking untergeht.

Anstatt also die Workflows einer Full-CG-Produktion eins zu eins zu kopieren, sollten wir uns bei der Integration von KI in die Werbefilmproduktion unter anderem fragen:

  • Was war bisher unmöglich, und was machen wir mit unseren ganz speziellen, filmemacherischen Erfahrungen jetzt dank AI möglich?
  • Wie erhalten wir uns dabei die kreativen Freiräume, die uns in unserem aktuellen Filmschaffen überhaupt ermöglichen, etwas Großartiges abzuliefern?
  • Wie überzeugen wir Kunden und Agenturen davon, dass genau das notwendig ist, um gute Filme zu machen?

Sonst gewinnt die dunkle Seite der Macht, und wir produzieren am Ende nur noch Malen nach Zahlen. Oder vielmehr: sonst dürfen wir die KI beim Malen nach Zahlen beaufsichtigen. Das wäre der Worst Case und glaubt mir, das gilt nicht nur für uns Filmschaffende, sondern auch für Kunden und Agenturen. Wir müssen es ihnen nur so sagen, dass sie es uns auch glauben. Schickt gerne einen Link zu diesem Post weiter – you are welcome!

Hervorgehoben

Agentic Directing

Agentic AI soll ja das ganz große Ding für 2025 sein, aber ist da was in Sicht in Sachen Filmemachen?

Keine Agenten in Sicht, sag ich mal: Momentan sind AI Workflows verflucht komplexe Setups, bei denen schon jetzt diverse AIs zusammegestöpselt werden: mit Gemini einen Prompt schreiben, der mir in Midjourney das bestmögliche Bild macht; dann dieses Bild in die nächste AI füttern, sagen wir KLING, um eine Bewegtbildsequenz daraus zu erstellen; dann mit Elevenlabs vertonen etc.

Das kannst du dir per Hand puzzeln, das ist alle paar Tage neu; du kannst in Foren & mit Freunden heisse Tips austauschen was wofür am besten ist. Du kannst auch schon diverse Produkte nutzen, die bei der Integration der Arbeitsschritte helfen, Canvasses wie Flora oder Freepik, die viele AIs in einer Oberfläche zusammenführen; Suites wie LTX, die in einem integrierten System alle Arbeitsschritte des Filmschaffens zusammenführen – Storyboarding, Shoterstellung, Kameradirections, Grading, Edit etc…

Der neueste Shit:  ChatGPT und Gemini sind nicht mehr promptbasiert, sondern „conversational“ und integrieren Workflows in den generativen Prozeß wie „mach mal das Shirt anders“: sie sind also auf dem Weg von der Slot Machine – immer alles neu – hin zu einem non-destructive workflow, bei dem ich Details verändern kann anstatt immer wieder von Null zu starten.

ABER. Agentic? Was noch immer so ist, egal in welchem Ökosystem du da unterwegs bist: Du brauchst selber eine Vision, eine Idee. Und du mußt sie auch umsetzen, du mußt also Director sein, und deinen AIs directions geben. Aber wer ist schon ein Director? Moment, was war nochmal die große Prediction für 2025? Ach ja, das Jahr von Agentic AI.

Aktuell ist ja das Versprechen von AGENTIC AI eher, daß demnächst ein AI AGENT autonom meinen nächsten Trip nach Paris für mich organisiert, und dabei meine diätetischen & hoteltechnischen Vorlieben, Timingvorgaben und Airlinepräferenzen berücksichtigt, aber warum nicht einen Schritt weitergehen – was ist eigentlich mit AGENTIC DIRECTION?

Warum eigentlich kann ich nicht einen Regie-AI-Agenten trainieren? Einfach zwei Jahre lang alle Regie-Ratgeber, Filmhandbücher, Oscar-Filme, Making Ofs, Proseminar-Transkripte der HFF und Restaurant-Präferenzen für Barcelona füttern und LOS GEHT’S:

Liebe Regie-AI, hier ist meine Filmidee: „Aliens wollen Justin Bieber entführen, um auf ihrem Heimatplaneten eine Justin Bieber Mania auszulösen, entführen aber aus Versehen nur sein Karaoke-Lookalike, und dann bricht die Hölle los auf Bragulon Kappa“

So, kann ich das bitte einmal als Wes Anderson Film sehen? Oder nee, doch eher eine Tarrantino-Splatter-Komödie. Und jetzt doch eher mal so mit katholischen Schuldgefühlen als Scorcese-Drama. Schockt nicht. Lars Von Trier?

Wartet’s ab, genau so wird es kommen, und wenn nur deshalb, weil ich’s lustig fände. Mal sehn ob es dann noch `ne Producer-AI gibt, die beim Umsetzen hilft – wahrscheinlich auch wegrationalisiert – „Dafür reicht das Budget leider nicht“ kann die AI auch selber Feedbacken.

Weniger lustig: Ich glaube WIRKLICH, daß sowas kommen wird. Und ihr?

Der „Ted Lasso – Effekt“

Warum eigentlich sind 95% der AI Bewegtbildsachen in meinem Feed noch immer Schrott? Genauer: Bei Stills nähern wir uns Fotorealismus. Bei einzelnen Bewegtbild Shots wird’s schon ganz gut bis gut genug; nur ein ganzer (Werbe-)Film, und wenn nur 60 Sekunden, war bisher nicht in Sicht, und alle Versuche darüber waren inakzeptabel, die CocaCola Weihnachtsfilme sehr explizit eingeschlossen. Aber warum? Ich sage: Weil das zumeist von irgendwelchen Menschen kommt, die mit den Tools rumfummeln, aber nicht von Filmprofis. 

Das hat sich grade geändert. Sebastian Strasser hat einen Werbespot für Vodafone gemacht, der genau das will und zum großen Teil auch liefert, was zuvor schon die sagenwirmal 50 Vignettenfilme für Vodafone auch gemacht haben. 

Ich weiß, daß ihr jetzt meckern wollt. Ich habe 2 Millionen Beschwerden gelesen darüber wie schlecht der Film sei; die beziehen sich in Wahrheit sämtlich auf das Script. Whatever, sag ich da, ich bin kein Möchtegern-CD; ich bin Producer, ich finde also alle Skripte fantastisch. Agesehen von allem Detailgequengelkann ich als Producer zum ersten Mal Herrn Strassers Fazit teilen: „AI is here“!

Wie aber hat er es bloß geschafft, einen einigermaßen annehmbaren Film herzustellen? Ich möchte das den „TED LASSO – EFFEKT“ nennen: Jemand, der in seinem Metier richtig gut ist, überträgt sein Wissen, seine Methoden, seinen Geschmack, seine Workflows auf ein neues Metier. Wie Ted Lasso, der sich nur mit American Football auskennt, aus einem Haufen englischer Rumpelkicker eine gute Mannschaft macht, so hat Sebastian Strasser aus einem Haufen disparater, AI erzeugter Shots einen Film gemacht. Ted Lasso hat noch nicht die Meisterschaft gewonnen (ich bin noch in Staffel 2, kommt vielleicht noch), aber er ist auf einem vielversprechenden Weg. 

Ted Lasso hat keine Ahnung von Fußball, so wenig wie Seb Strasso von AI. Für viele Nerds vielleicht überraschend: Muß er auch nicht. Warum? Weil er seine Heads of Department hat, die sich auskennen, seine Subcoaches, und die Truppe von Fußballern, die wissen, wie man einen Ball kickt. Seb Strasso hat einen Creative Director, einen VFX Supervisor, eine Producerin, einen Editor, einen Grader, und jede Menge AI Artists und VFX Artists zum Reparieren von dem, was die AI versemmelt oder noch nicht hinbekommt. Er muß sich dafür nicht mit AI auskennen, das kann sogar hinderlich sein. Er muß vielmehr eine Vision für den Film haben. Sonst würden alle ohne einen gescheiten Coach im Nebel stochern und einen Ansammlung disparater Shots hintereinanderballern, aber keinen Film entstehen lassen.

Und umgekehrt: Regisseur und Midjourney und Runway werden auch keinen Film auf die Beine stellen; dafür braucht das AI Handling einfach viel zu viel Spezialwissen, was mit Regie Führen zero zu tun hat. Das übersieht man nur gern, weil die Tools so tun, als wenn sie nur ein bisschen Textprompting bräuchten. Ist natürlich Quatsch. Eine Slotmachine macht keinen Film, auch nicht wenn einer am Hebel zieht, der sich stolz Slot Machine Operator nennt.

Sebastian Strasser selbst hat auf dem Ciclope Festival davon berichtet, wie der Film entstanden ist, und das Interessanteste für mich war dabei, wie sehr er „einfach“ wie ein Regisseur da rangegangen ist, und eben nicht wie ein AI Nerd:

Er hat ein Storyboard gemacht; er hat eine riesige Cast Base sich aufgebaut an AI Darstellern (und war begeistert davon, daß er jetzt endlich seine DarstellerInnen zu 100% so bekommt, wie er sie möchte); er hat Räume und Welten und Hintergründe bauen lassen und durchgetauscht; er hat Shots generieren lassen ohne Ende, garantiert viiiiiel zu viele aus Producersicht; er hat seine AI Artists mit Filmbeispielen getriezt („Nein, Nein, der Raum muß viel mehr aussehen wie bei Cassavetes!“) und sich gewundert, daß die gar nicht wussten, wovon er redet; er hat alles in VFX basteln lassen was die AI versemmelt hat; er hat eine Riesentruppe an Spezialisten zusammengetrommelt, er hat nochmal auf Film ausbelichtet weil das irgendwie geiler aussieht (Der Look, das Grain, ihr wißt schon), selbst das persönliche Drama durfte nicht fehlen: Zwischendurch mußte der Director, so berichtet er, ins Krankenhaus gefahren werden, weil er nur noch Rechtecke gesehen habe. 

Wie klingt das für Euch? Was soll ich sagen: eigentlich alles wie immer, ob mit oder ohne AI – und mir scheint, daß erst und vor allem dieses „alles wie immer“ dazu geführt hat, daß dieser AI-Film am Ende auch ein Film geworden ist. More to come, nehme ich mal an.

Hervorgehoben

ENTWERTUNG

Ich hab in letzter Zeit versucht, den Disruptionsfaktor diverser generativer AI Tools im Bereich Bewegtbild fassbarer zu machen, ein Beispiel: „Beim Look Development ist der Disruptionsfaktor 10:1 weil man mit AI LookDev in 2 Stunden statt in 2 Tagen machen kann“. Dabei dämmert es mir jetzt erst, dass „Disruptionsfaktor“ nur ein Fancy Label ist für etwas wirklich Bedrohliches: Dieser Disruptionsfaktor misst eigentlich einen Grad von ENTWERTUNG. Vielleicht sollten wir zukünftig lieber vom „Entwertungsfaktor“ sprechen. 

Entwertung von was denn genau? Entwertung von Execution. Von informierter Umsetzung, von Handarbeit, von Pixelschubsen und Organisation. „Viele Menschen machen den Fehler zu glauben, dass mit einer Idee schon 90% der Arbeit getan wäre“. Steve Jobs hat recht: das ist Bullshit. Ein Großteil der kreativen Arbeit ist Execution. Ein Großteil von dem was eine Agentur tut – ein Großteil von dem, was eine Filmproduktion tut, sowieso. Da redet man nur nicht so gerne drüber, weil das irgendwie dem Selbstbild von Kreativen zu widersprechen scheint. Was bleibt, wenn einem die Execution aus der Hand genommen wird? Ideen haben. Und die heiligen, von kreativem Geist beseelten IDEEN! IDEEN! die kann einem natürlich keiner wegnehmen. Kann sein, aber damit ist noch lange nicht alles gut. Wenn uns nämlich jemand die Execution abnimmt, dann nimmt er uns 95% unserer Arbeit weg.

Das ist in vollem Gange: Indem AI für immer mehr Umsetzung von kreativer Arbeit benutzbar ist und benutzt wird, entwertet AI unser „Portfolio“ an angebotenen Leistungen. Messbar in dem Sinne, daß potenzielle Kunden ihnen keinen Wert mehr beimessen wollen: „Das könnt ihr doch mit AI in ein paar Stunden machen“. Und sie werden immer häufiger recht damit haben. 

DAS ist die Entwertung, über die wir reden müssen. Niemand nimmt uns unsere Ideen oder unseren taste, unser kreatives Urteilsvermögen. AI nimmt uns die Execution weg, und weil Execution ein Großteil der Arbeit ist, die wir ABRECHNEN, ist das vielleicht viel bedrohlicher. Das seht ihr nur alle nicht, wenn ihr der Execution zu wenig Bedeutung beimeßt. Euer eigener Säulenheiliger Steve Jobs wäre sauer auf euch! Das werdet ihr spätestens dann spüren, wenn euch keiner mehr für Execution bezahlt und ihr im Kreis lauft und euch gegenseitig eure tollen Ideen erzählt, aber keinen mehr findet, der euch dafür eine Rechnung stellen läßt.

Was jetzt?

Man kann einen immer größer werdenden Teil seiner Zeit damit verbringen, allen zu erklären, daß das ein Wahrnehmungsproblem sei: „Guckt mal genauer hin, das AI Zeug ist gar nicht WIRKLICH so gut wie (mein) Handgemachtes“, aber das wird ein immer schwerer zu machender Punkt werden.

Man kann sich auf die immer kleiner werdende IDEEN-Insel retten und glauben, daß das AI nie, nie, wirklich nie schaffen wird: Ideen zu haben. I got bad news for you – schaut mal ins Urheberrecht. Ideen sind nicht schützenswert, meine Lieben. Ideen hat jeder, ständig. Ideen brauchen Execution, Umsetzung, damit sie eine gewisse „Schöpfungshöhe“ erreichen, wie es so schön verquast-altdeutsch heißt, damit sie als Werk schützenswert werden. Will sagen: Ideen ohne Execution sind nichts wert. Ideen hat auch mein 9jähriger jeden Tag schon ein halbes Dutzend. Vor dem Frühstück.

Immer noch skeptisch? Dann fragt doch mal Midjourney, wie wertvoll Eure Ideen sind. Oder fragt besser nicht, da sich all diese AI Tools natürlich mit derselben künstlerfreundlichen Rhetorik schmücken, das haben sie sich bei den Pimps der Musikindustrie, den Plattenfirmen, abgeschaut. „We put creators at the centre of our strategy“ habe ich neulich einen TIKTOK Avatar sagen hören. Ohne Witz. Einen Avatar, der dafür gebaut worden ist, einen menschlichen Influencer zu ersetzen. So viel coporate Kaltschnäuzigkeit & Dummdreistigkeit kann man sich gar nicht ausdenken.

Die Cover Up Story aller generativen Tools ist ja dieselbe: „Du Mensch hast tolle Ideen, die du als Prompt eintippst, und wir kümmern uns um die Execution“. Das ist schlicht gelogen, wie jede/r testen kann, indem sie „Flitzenpiependrängel“ in das Promptfeld von Midjourney tippt. MJ produziert nämlich immer irgendwas, das so aussieht, als wenn eine Idee dahinter gesteckt hätte. Andersrum macht es MJ einem sehr schwer, eine wirklich konkrete Idee konkret umzusetzen. Diese Tools ballern immer eine Execution raus, egal ob du eine Idee einspeist oder „Flitzenpiependrängel“. Die Tools BRAUCHEN keine Ideen für ihre Execution. Die sind sich tendenziell selbst genug. Die haben alle Ideen schon beim Trainiert Werden absorbiert und können sie in einem unendlichen Strom von Execution in unendlichen Variationen wieder ausspucken. Flitzenpiependrängel sieht übrigens so aus:

Und was jetzt? „Ideen“ werden uns nicht retten, wenn uns jemand die Execution aus der Hand nimmt, auch wenn das noch so mafiös nett passiert. Wenn so ein fetter Konzern dir den Arm um die Schultern legt, sanft, aber mit milliardenschwerem Nachdruck, und so kreativkumpelhaft murmelt. „Mach dir keine Sorgen, wir übernehmen das ab jetzt.“ Was sie nicht so laut sagen: Ob du willst oder nicht. Ob dir das gefällt, wie wir das machen, oder nicht. Deine Kunden haben halt gesagt, daß wir das jetzt machen sollen. Unsere Investoren auch. War nett dich kennen gelernt zu haben. Kannst gerne weiterhin tolle Ideen haben und sie gegen nur noch 30 Euro Monatsabo als Prompt in unsere Eingabefelder tippen, aber eigentlich können wir das auch selber. Machen wir ja eh schon die ganze Zeit. Darfst uns noch ein bißchen trainieren und optimieren für die letzten 5%, aber dann hau bitte ab, okay?

Wenn wir uns die Execution wegnehmen lassen, dann sind wir im Eimer. Dann bleibt uns nichts mehr übrig, als wie die 3jährigen vor einer Textbox zu sitzen und unsere „Ideen“ einzutippen: „eine schöne frau am strand bei sonnenuntergang mit GUCCI klamotte. sie hat sommersprossen.“ und aus den tausend Ergebnissen, die die AI ausspuckt, dürfen wir dann drei raussuchen und sie dem Kunden präsentieren. Klingt Scheiße? Ist es auch.

Was also wirklich jetzt?

Wir dürfen uns die Execution nicht aus der Hand nehmen lassen. Wir sind hoffentlich nicht umsonst die Master der Execution Workflows. Wir haben eine über Jahrzehnte aufgebaute Expertise darin, Ideen perfekt umzusetzen. Mehr Expertise jedenfalls, als es braucht, um aus einem Satz mit 8 Wörtern einen Shot zu erzeugen, der einigermassen glaubhaft aussieht. Expertise, die beurteilen kann, wie der Shot zum ganzen Film paßt. Ob der Shot die bestmögliche Art & Weise ist, das zu erzählen, was er an dieser Stelle im Edit erzählen muß. Etc., etc., pp. Ihr wißt wovon ich rede, und das weiß AI noch lange nicht. Wir müssen uns die AI Tools untertan machen und sie in unsere Workflows einbauen dergestalt, dass jeder sehen kann, welchen Mehrwert das erzeugt im Vergleich mit jedem X-beliebigem AI-Schrott, der heute schon durch’s Netz wabert und von absichtslosem Stock Footage kaum zu unterscheiden ist.

Oder?

Ein Tausendstel

Seit der AI Hype angefangen hat, versuche ich, an den ganzen ästhetischen, kreativen, gesellschaftskritischen, arbeitsmarkbezogenen und sonstigen Diskussionen absichtlich vorbeizuhören und mich stattdessen zu fragen: Was ist denn jetzt das Disruptionspotenzial von generativer AI in unserem Business? Noch genauer: Kann man da, wir sind ja schließlich Producer, irgendwie mal ’ne Zahl dranhängen bittesehr? Könnte man ja wohl mal versuchen. Schließlich hängen wir ja auch jeden Tag Zahlen an Agenturskripte, die regelmäßig kaum verbindlicher sind als die Frage „Was kostet eigentlich so ein AI Film“, also let’s go for it!

Der Regisseur Paul Trillo hat Zugang zu SORA und hat damit ein fantastisches Musikvideo gemacht, eine wahre Materialschlacht nach klassischen Maßstäben. Im FX GUIDE gibt es eine Analyse, die greifbar macht, was da auf uns zurast.

Trillo hat rund 240Minuten generiert für 4Minuten finalen Film, das macht eine shooting ratio von 60:1. Eigentlich nix Besonderes, erst recht nicht für ein Tool das noch in den Kinderschuhen steckt.

Irrerweise hat er dabei nur ein paar wenige Übergänge mit After FX getrimmt und alles gegradet, der Rest kommt so direkt aus SORA – woran man sich schon alles gewöhnt hat! Ich hab schon so Kommentare gehört wie „Holt mich nicht ab“… Ich selber bin noch beim dritten Mal Gucken geflasht von der Materialfülle, der weiredness, dem Tempo, dem Sog, den das erzeugt, aber egal: anderes Thema.

Der FX Guide hat die Kosten für die Computing-Leistung dahinter mit rund 650$ berechnet. Nicht für SORA wohlgemerkt, die haben noch gar kein Preismodell, aber für die erforderliche Computing Power, die man anhand von Tech Specs berechnen kann, die SORA veröffentlicht hat. Zu teuer für Amateure, aber ein Schnäppchen für professionelle Anwender.

Zum Vergleich: Dieses Musikvideo nach klassischen Gesetzen herzustellen ist budgetär kaum abbildbar bei der Anzahl an Szenen, Sets, Darstellern etc. 50-60 Sets; sagenwirmal 10 Drehtage, tonnenweise VFX… Egal, nehmen wir an, es hätte abgesehen von Regiegage und Konzeption, die ja für die SORA Version auch anfallen, wild guess: 650.000 gekostet, nach oben hin seeehr offen. Dagegen stehen 650 für Computingkosten.

Wenn also mal jemand das Disruptionspotenzial von Sora für den Kernbereich unseres Wirkens – das Filme Machen – mit einer Zahl versehen möchte, hier ist sie: Der Aufwand sinkt potenziell auf ein Tausendstel. BÄÄÄÄÄM!

Ist ja nur ’ne Zahl? Geht mal zu einem Autokonzern und erklärt denen, daß jemand grade eine Methode gefunden hat, ihr Auto für ein Drittel der Kosten herzustellen. Da fällt denen der Kitt aus der Brille. Bei einem Drittel, nicht bei einem Tausendstel.

Und ja, ich weiß: Es gibt X Gründe, warum das Video von Paul Trillo noch nicht so gut ist, als wenn man alle erdenklichen verfügbaren High End Tools und Realdreh dafür aktivieren würde. „Die letzten 5% sind immer die schwierigsten“, „Die Characters sind noch nicht konsistent“ etc etc yadda yadda yadda. Aber das ist doch alles MiMiMi angesichts des POTENZIALS einer Ersparnis von 1.000:1! Hallo, Kapitalismus und so???

Mal anders herum gefragt: Glaubt ihr, daß diese Ratio 1.000:1 genügend Anreiz hergibt, um Character konsistent zu machen und die letzten 5% auch noch hinzubekommen? Glaubt ihr, daß Sam Altman ein paar Milliönchen von den 7 Billionen Dollar ($7.000.000.000.000 – auch nur eine Zahl, aber eine Zahl mit 12 Nullen, mehr als ein Viertel des GDP der USA), die er für AI gern aufstellen möchte, da reinstecken wird? Wetten und Gegenwetten bitte gerne in die Kommentare.

Oh, und wer Langeweile hat, hört sich einfach unsere jüngste Podcast-Folge an (oder die davor, die ist auch super): https://www.filmmakingfuture.com

Der Blog zum Hören

Ooops, schon die dritte Episode draußen, da dann wird’s aber Zeit hierfür, was?

Mit meinen fabulösen Kolleginnen von anno dunnemals, der Editorin Ilka Risse und dem Regisseur Daniel Lwowski, habe ich mich daran gemacht, diverse Themen zu vertonen, die auch schon durch meine Blogs geistern. Insbesondere fragen wir uns, was denn da gerade mit unserem geliebtem Metier, dem Filme machen, passiert, und wie es vielleicht weitergehen könnte. Mutige würden „Podcast“ dazu sagen! Gerne mal mit ungläubigem Gekicher und im vollen Gallopp durch die Wortspielhölle, aber versprochenermassen immer das Thema ZUKUNFT fest im Auge behaltend…

In der ersten Folge stellen wir uns vor und das, worüber wir zukünftig sprechen und Gäste befragen werden.

In der zweiten Folge stellen wir Euch die neuen Tools vor, die wir bereits benutzt oder ausprobiert haben von Elevenlabs über Heygen zu Suno.

In der dritten Folge „Mit Klonen vertonen“ haben wir unseren ersten Gast, Michael Ivert, und plaudern darüber, wie sich AI ins Synchron-Business vorarbeitet. Zuvor testet Ilka todesmutig am eigenen Leib das Stimm-Klon-Tool Elevenlabs und wird nacheinander unfreiwillig in eine Bayerin, eine Schottin und eine Russin verwandelt, ist aber am Ende auch wider Willen von den möglichen Ergebnissen beeindruckt. „Check it out“, wie meinetwegen Markus Kavka vielleicht sagen würde!

Cartoon Physics

Da hat grade ein Regisseur einen Cosmetics Film mit Hilfe einer AI „nachgedreht“, den er vor einem Jahr mit 30 Mann Team und jeder Menge Realdrehaufwand hergestellt hat. Netterweise hat er an die AI-Version eine Side-By-Side Comparison angehängt vom Original und von der AI Version.

Man kann da jetzt wieder mit dem Profi-Auge draufschauen und konstatieren, dass ja das Original total super individuell und kreativ sei, und dass die AI Version dagegen total generisch sei und ihr die letzten 5% an Rafinesse und Human Touch fehlten, die das Original so fantastisch machen. Das ist das, was verlässlich jedes Mal passiert, wenn ich mit anderen Branchenprofis das Thema diskutiere.

Das kann man noch 100 mal machen, so wie man auch gesagt hat „Digital drehen? Aber nie im Leben für Beauty Filme“. Aber wie oft noch?

Man kann das aber auch abkürzen und sich nur mal so probeweise mit folgendem Gedanken anfreunden:

Generative AI ist so weit. Die kann immer mehr insbesondere von dem generischen Bewegtbildkrempel umsetzen, der 95% dessen ausmacht, was da draußen noch immer mit riesigem Aufwand in die Welt gesetzt wird.

Und, daraus abgeleitet: Der immer kleiner werdende Unterschied zwischen Realdreh und AI Film interessiert mit Ausnahme von uns Branchenprofis wahrscheinlich immer weniger Konsumenten, und das sind diejenigen, für die das produziert wird. Das ist weder Zynismus nach Konsumentenverachtung, das ist eine sich abzeichnende Realität.

Was genau können wir als Producer nochmal? Eigentlich nur zweierlei: Wir können die Kreativen finden, die perfekt eine Idee, ein Skript zum Leben erwecken werden. Und wir beherrschen die Workflows, mit deren Hilfe diese Regie dann aus einem Skript und einem Budget einen erfolgreichen Film macht. Eine dieser beiden Kernkompetenzen scheint mir grade massiv im Umbruch zu sein.

Ihr kennt sicher den visuellen Standard-Witz aus diversen Looney Tunes Cartoons: Wile E. Coyote rast über die Klippe hinaus und rennt noch ein paar Meter weiter in der Luft über einen tiefen tiefen Abgrund, als wäre die Klippe noch da – erst als er sieht, dass er mitten im Nichts schwebt, stürzt er ab. Wenn ich jetzt abschweifen wollte, würde ich einen kurzen Exkurs über das hochinteressante Feld der Cartoon Physics einbauen (Law 1: „Any body suspended in space will remain suspended in space until made aware of its situation.“ etc.)

Das sollten wir aber in der Welt der Commercial Production Physics tunlichst vermeiden: daß wir einfach immer weitermachen als wäre nichts, während unter uns unsere Workflows wegbröseln und wir merken es erst, wenn wir schon mitten in der Luft schweben.

Hervorgehoben

AI Director im Interview: Martin Haerlin

Vor Kurzem noch habe ich darüber halluziniert gebloggt, daß in Zukunft immer mehr Filme von Centauren gemacht werden, wie sie beim Schach heißen: von Kombinationen aus Menschen und AIs. Und dann finde ich doch tatsächlich einen solchen Centaur in meinen Feeds: Martin Haerlin, Regisseur seines Zeichens, der seit einiger Zeit tolle AI Filme und Werbung macht. Den hab ich ruck-zuck gleich mal interviewt für Euch:

SP: Martin, du kommst aus dem klassischen Werbefilm als Regisseur. Was hat dich bewogen, mit AI loszulegen und die Filme zu machen, die du bisher gemacht hast?

MH: Also die wichtigste Zutat um bei KI eingestiegen zu sein dieses Jahr ist, dass man in der Werbung arbeitet und Anfang des Jahres nichts zu tun hatte. Ich habe früher mal programmiert und habe mich wieder darauf zurück besonnen: Ich hab angefangen zu programmieren. In Python, aber auf ’nem Low Level; Habe auch angefangen mich in Machine Learning reinzubasteln, kleine Kurse angeguckt und dann stieß ich auf Runway, diese Plattform die ja Machine Learning basiert ist, und wo du Videos generieren kannst. Damals war nur die GEN 1 verfügbar, wo du Videos re-stylen kannst. Ich glaube, dass mir mein Programmier-Monat am Jahresanfang die Angst genommen hat, mich damit auseinanderzusetzen.  Wäre ich jetzt im Werbesaft gestanden und hätte rund um die Uhr gedreht, dann hätte ich mir die Video KI gar nicht angeschaut.

Und ich konnte plötzlich meine eigenen kleinen Geschichten erzählen, ich musste noch nicht mal nach draußen! Es war einfach fantastisch, und dann kam in Juni GEN 2, wo man Text eingab, und dann ein Video entstand, wie bei Midjourney mit Stills ging das jetzt plötzlich mit Bewegtbild. Dann habe ich da wöchentlich einen Film gemacht, aber auch Stunden am Tag am Rechner verbracht.

SP: Kannst Du beschreiben, wie sich deine Rolle verschoben hat im Vergleich zu einer klassischen Filmproduktion? Hast du ja schon getan, du sagst „du und dein Rechner, das war’s“, oder?

MH: Es ist es ist deutlich weniger glamourös; man sitzt bucklig vorm Rechner und bastelt vor sich hin. Als ich angefangen habe im April, da haben ganz viele Leute Runway schon benutzt, aber es waren eher so die Computer Geeks, und die haben dann die zehn schönsten KI generierten Explosionen releaset.  Das hatte für mich aber erstmal keinen Use Case; es gab kaum jemanden, der Storytelling macht und KI benutzt. Und deswegen konnte ich mit meinen Filmen eine Leerstelle ausfüllen.

Mit anderen Worten: es ist irre wichtig dass man Storytelling kann, sei es als Werbe-Regisseur oder als Spielfilmregisseur, oder als Schriftsteller, und das dann kombiniert mit einem oder mehreren KI-Tools.

SP: Wie wir sehr fehlt dir der Input der anderen Department also Storyboarder, Production Designer, Kamera und so weiter?     

MH: Der Input der klassischen Departments funktioniert im Moment noch nicht in der KI-Welt. Man kann nicht sagen „Ich möchte genau so ein Wohnzimmer“, „Ich möchte genau so ein Licht“ „Ich möchte genau so eine Aktion“.

Sämtliche KI-Plattformen quatschen mit rein und machen ihr Zeug damit. Das heißt, du triffst immer wieder auf Begrenzungen, wo du dich drumrum arbeiten musst. Was aber wichtig ist, ist der Input anderer KI Leute. Ich bin überrascht wie freundlich und unterstützend die KI Community ist vor allem auf Twitter. Ich hab wieder unheimlich viel Input, aber von anderen Leuten. Welche Kamerabewegungen gehen; welche Prompts funktionieren gut; welche schlecht; was kann man ohne viel Aufwand mal eben generieren und was braucht ewig. Das heißt, der Austausch hat sich nur verschoben.

SP: Sind das Leute die wie du einen Regie-Background haben, oder ist das deutlich bunter?

MH: Ich bin einer der wenigen, die da wirklich mit seinem Klarnamen herumhantiert. Die meisten haben irgendwelche Avatare und dementsprechende Namen, aber ich glaube, dass viele aus dem Filmbereich kommen. Art Direktoren, Regisseure, einer kommt von der BBC – schreibt er – ich finde man merkt relativ schnell wo sie herkommen, wenn man deren Arbeiten sieht. Leute die wirklich Storytelling machen, die müssen aus dem Bereich sein. Die setzen sich mit Bildern auseinander. Es gibt aber auch ganz viele die machen Tests, die zeigen dann den Fallschirmsprung, den sie in KI gerechnet haben; und das hat ja auch seine Berechtigung. Ich merke: Soundso könnte man etwas erzählen. Die, die mich faszinieren, kommen wahrscheinlich aus einem ähnlichen Bereich wie wir.

SP: Die Arbeitsteiligkeit ist ja trotzdem komplett verschwunden, wenn du als Chimäre mit deinem KI Tool zusammenarbeitest. Welche der klassischen Rollen gibt’s da zukünftig für dich eigentlich? Gibt es eine Rolle für einen Producer in diesem Setup?

MH: Was ich mach ist wirklich nur auf sehr kleinem Level. Man könnte deutlich bessere KI Filme machen, wenn man im Team arbeitet. Wenn man einen Producer hat, der das kalkuliert. Wenn man einen Kameramann hat, mit dem man was zusammen dreht & das dann restylet; und dann aber auch noch in einem Text to Video Tool die Establisher macht. Eigentlich geht es mir darum zu zeigen, „Hey, KI kann ’ne Menge; Aber bitte nicht ab jetzt alle Spots in KI generieren“.

KI ist ein mächtiges Tool, mit dem man prävisualisieren kann, aber in Zukunft auch ganze Shots ersetzen kann, wofür früher die Kohle oder die Zeit nicht gereicht hat. Du kannst deine Filme viel größer machen; emotionaler, intensiver. Eigentlich gehts mir nicht darum, Departments zu ersetzen, sondern Enhancement durch das KI-Tool zu bekommen.

SP: Gestern bin ich über einen AI Film von Cadmo Quintero gestolpert, der hat klassische Departments mit reingenommen: Sören Görth hat geschnitten, DIE ZWEI haben Musik gemacht, und man merkt sofort den Input der anderen Departments. Das Heavy Lifting übernehmen in diesem Film geradezu der Schnitt und die Musik. Das macht einen Riesenunterschied.

MH: Hab ich gesehen, finde ich richtig toll. Wir haben unterschiedliche Herangehensweisen glaube ich – mir geht es erstmal darum zu zeigen, du kannst es als One-Man-Show schaffen. Ich mach absichtlich Low Tech. Ich hab in meinem letzten Re-Styling-Film absichtlich ein  Stöckchen benutzt, ich hätte auch eine Pistole nehmen können, ich habe aber extra ein Stöckchen genommen und das zu einer Pistole re-stylen lassen, ich will, dass das alles handgemacht aussieht.

Wenn da noch mehr Regie- oder Kamera Kolleginnen einsteigen würden… wir haben alle so einen Vorsprung was Filmsprache angeht, das beeinflusst den Output. Wir wissen wie wichtig Sounddesign ist, wie wichtig ’ne Close und ’ne Weite Einstellung im Wechsel sind, wir könnten richtig tolle KI Filme machen, es benutzen aber noch extrem wenige. Das ist so ein bisschen wie „Don’t Look Up“: Es WIRD kommen. Und man MUSS sich damit auseinandersetzen. Zu sagen „Ich mach’s nicht“, das ist echt gefährlich.

SP: Deinen LowFi Ansatz finde ich persönlich wahnsinnig interessant. Das was Cadmo gemacht hat, ist für mich so das Naheliegendste; das ist so ein Post Production SciFi Future Dystopia Sujet Ding, da werden die Leute vielleicht sagen „Naja, das hätte man früher in 3D gemacht oder in der Unreal Engine, jetzt macht’s halt ’ne KI, wo ist der große Unterschied?“ Aber bei dem, was du machst – das machst du nicht in UnrealEngine. Der Ansatz ist ein ganz anderer. Den finde ich persönlich total spannend weil es einem dieses Gefühl vermittelt „Geil! Let‘s Go! Ich brauch das alles nicht, film film film!“

MH: Genau! Diese Attitude möchte ich rüberbringen. Ich will es nicht als NOCH schwieriger hinstellen. Nicht: „Oha, wenn ihr KI macht, Freunde, daaaaannn langsam…“ Ich veröffentliche auch immer meine Herangehensweise.

SP: Ich habe vor allem Angst davor, dass die Industrie das vereinnahmt und sagt „uh, oh, da brauchen wir jetzt aber erstmal ein halbes Jahr“, und dann ist das wieder so wie beim Switch von Filmmaterial zu digital: du sagst “Geil, ich  muss diese blöden Filmrollen nicht mehr rumtragen und entwickeln und abtasten, Yippie!“ aber dann kommt gleich: du brauchst einen DIT; und du drehst 10x so viel Material; hast doppelt soviel Edit-Zeit etc. Da hat sich der Alte Prozeß gleich wieder so breit gemacht in dem neuen Medium, dass der Unterschied zwischen Alt und Neu sofort wieder verschwunden ist. Also die ganzen Vorteile. Darum finde ich deinen LowFi Ansatz so toll: Das macht Spaß, und das merkt man.

MH: Der Spaß ist dabei wahnsinnig wichtig, dass man andere inspiriert und ansteckt. Dass sich die Industrie da sofort wieder breit macht: Ich hoffe dass das nicht passiert.

Man muss im Moment mit KI noch sehr vorsichtig sein weil es den gesamten Prozeß der Werbung auf den Kopf stellt. Während es bei Werbung immer um Kontrolle ging – Fitting, Abnahme wie das Essen aussieht… Wir versuchen, den Zufall möglichst auszuschließen denn der Kunde hat all sein Geld zusammengekratzt und da soll dann die Schokolade fließen und die Butter schmelzen, und da darf nix schiefgehen. Und das geht mit KI nicht mehr. KI wird das auf den Kopf stellen. Wir müssen uns da mit dem Zufall, der Spontaneität arrangieren. Und ich glaube, dass sich dieser Prozeß in der Werbung durchsetzen wird. Parallel zur üblichen Kontrolle. Sone Marke wie Dr. Oetker wird nicht so schnell auf KI aufspringen; aber eine Lifestyle Marke wie H&M oder Zalando. Wenn ich sehe wie ein Model in Pink gekleidet an einer Tischtennisplatte vor einer grauen Betonwand vorbeiläuft, dann ist das ein Bild, was ich bald in KI umsetzen kann. Und dann kriege ich vielleicht eine Person, wie sie vielleicht nicht ganz im Zalando Katalog zu finden ist; aber sie hat trotzdem was Interessantes. Es wird ein neuer Prozeß entstehen, wo man Spontaneität wieder zulässt und wo man zu den Anfängen der Werbung zurückgeht, wo man einen Künstler engagiert hat und gesagt hat: „Mach uns mal in deinem Style etwas für meine Marke.“ Und da ist dann jetzt eben der KI Künstler, und dem sagt man “Mach doch mal mit deiner KI einen lustigen Film für XY“ Und dann machst du was und zeigst es denen und das ist eine total schöne Vorstellung und Zukunft, auf die ich mich freuen würde.

SP: Bin ich total bei dir. Hast du schon ein kommerzielles Projekt mit KI umgesetzt?

MH: Es kommen wahnsinnig viele Anfragen. Es ist im Moment noch schwierig, weil die immer noch die volle Kontrolle wollen. Ich hatte eine Anfrage einer Versicherung aus USA, die KI sollte da eine Traumsequenz generieren von einem PIXAR-Mädchen, das Fußball spielt. Da habe ich gesagt, den eigentlichen Film muss man normal drehen, aber von der Animation könnte man große Teile wenn nicht alles in KI machen. Da würde ich mich dann hinsetzen und das VOR dem PPM so weit vorbereiten wie möglich, damit man dann nicht erst nachher merkt, dass man die Szene wie der Fuß den Ball kickt gar nicht hinbekommt in KI, was tatsächlich nicht möglich ist. Aktionen sind noch wahnsinnig schwierig.

Ich spreche jetzt beim ADC im November; bin mit einer Argentinischen Agentur am diskutieren. Deutsche Agenturen haben sich wenige gemeldet bisher. Mit Wiedemann & Berg habe ich gesprochen.

SP: Ich beobachte die Reaktionen, da gibt es ein breites Spektrum. Andre Aimaq hat da beispielsweise auf LinkedIn bedauert, dass die Agenturen nicht streiken wie die SAG Darsteller und als Forderung formuliert, dass AI Kreationen als solche gekennzeichnet werden müssten; und am  anderen Ende des Spektrums sind dann Menschen wie du oder der lustige John Finger, der auch dieses Let’s-go-for-it Ding laufen hat – wie siehst du diese Diskussion?

MH: Schwierige Diskussion. Seit Jahrzehnten werden in Hollywood Menschen über VFX dupliziert. In Mittelerde sind nicht 40.000 Orks gerannt, und der Film ist 25 Jahre alt. Es gab da schon immer Tricks. Die SAG Geschichte – so wie ich sie verstehe – ist, dass es darum geht, dass Komparsen von KI ersetzt werden.

Ich hab neulich mit einem Synchronsprecher dieselbe Diskussion geführt. Meine Kinder haben mal Synchronsprecher 2 Sätze für Netflix gesprochen. Sowas wird ziemlich sicher von KI ersetzt werden. Da muss ich aber auch sagen: Da geht kein Kunstform flöten. Das waren Teenager, keine Synchronsprecher auf einem hohen Level. Die werden in absehbarer Zeit nicht ersetzt werden. Die ganzen Nuancierungen kannst du so nicht Prompten. Das gleiche gilt für Schauspielerei. Wenn Komparserie verschwindet, verschwindet auch da keine Kunstform, sondern ein total netter Nebenjob.

Menschen können nur von Menschen gespielt werden, wenn sie eine emotionale Rolle haben, aber wenn man 20.000 Menschen zeigen will, die mit Schwertern herumrennen, dann kann man natürlich KI benutzen. Da verschwinden Jobs, die vor 120 Jahren auch im Handwerk verschwunden sind.

Du kannst auch jetzt einen handgewebtem Teppich aus der Manufaktur haben, aber auch einen Teppich von IKEA.

Und dasselbe wird es auch bei uns geben: Handgefertigte Filme von toller Crew gemacht; oder maschinengemachte Filme und Kreation. Das wird in diese zwei Kategorien zerfallen.

SP: Hast du Empfehlungen wo man dranbleiben sollte?

MH: Jon Finger ist toll.  Nikolas Neubert hat einen tollen Trailer gemacht, Christian Fleischer hat einen der ersten Gen2 Filme gemacht: THE GREAT CATSPY. Als ich das gesehen habe war ich so begeistert. Auf Twitter gibt es eine tolle Community, unbedingt einen Account holen. Aber, Rückfrage, wie siehst du das denn mit KI & Jobs ersetzen?

SP: Der kommerzielle Druck, das umzusetzen, was möglich ist, ist so groß, dass du dich nur entscheiden kannst, mitzumachen oder den Laden abzusperren. Wir als Werbefilmproduzenten sind überhaupt nicht in der Position, da Forderungen aufzustellen. Das klingt vielelicht defätistisch, aber wir drehen unsere Werbefilme auch im  Ostblock, weil da der Oberbeleuchter nur die Hälfte kostet. Das ist so. Das kann man Scheiße finden, aber man kann sich nur entscheiden, da mitzuspielen oder raus zu sein. Das muss man sich natürlich immer wieder neu fragen: „Mach ich DABEI dann auch noch mit, oder lasse ich’s dann lieber sein?“

Ich glaube, das wird sich verschieben, das Nicht Ersetzbare wird immer weniger werden – was muss man mit echten Menschen machen? Immer weniger. Das frisst sich ja schon von unten in unsere Departments rein. Stock Footage, Moodscouts, Storyboards, in die Kreation selbst – JVM hat grade eine KI Hyundai Kampagne gemacht. Das kommt aus allen Richtungen auf uns zu. Und die wirtschaftlichen Incentives, das zu machen, sind so stark, wie wir’s beim Switch zu digitalem Drehen erlebt haben, und das in Potenz. Da geht’s nicht darum, dass man jetzt 1.500 Euro für eine Abtastung spart. Da geht’s darum, dass man bestimmte Filme so macht, so wie Martin Haerlin sie jetzt schon macht, nämlich als One-Man-Show in einer Woche am Rechner. Mit einer guten Idee und einer guten KI und Feierabend. Da brauchste nicht nach Kapstadt weil das Wetter da schön ist im Winter.

MH: Was jetzt easy geht ist: du kannst jetzt einem Weingut einen 30-Sekünder über Trauben im Herbst machen. Das würde dich eine Stunde kosten, und die können das auf ihre Social Media Seite stellen. Man kann also jetzt auch Filme machen für alle die, die sich bisher keine Filme leisten konnten.

SP: Ich glaube diese positive Vision gibst da auch, dass sich da ganz viele neue Arten ergeben werden, mit denen man sein Geld verdienen kann. Es wird Zugang geben für Leute, die vorher keinen Zugang hatten. Die Location Scout geworden sind, obwohl sie vielleicht ein besseres Auge haben als mancher Kameramann. Da werden die Karten neu gemischt. Und es werden Jobs entstehen, die wir uns noch nicht vorstellen können, genau wie sich die Pferdekutscher den Tankwart noch nicht vorstellen konnten.

MH: Ich bin nach wie vor verblüfft wie klein das Interesse aus Deutschland ist.

SP: Ich hab’s am eigenen Leib erfahren. Ich hab THE GERAT CASTPY gesehen und gedacht „Also jetzt schlägst dreizehn“. Das habe ich allen geschickt, die mir einfielen und hab geschrieben: „Ihr MÜSST EUCH DAS ANGUCKEN. So in Stresser-Großbuchstaben. Das wird sowas von unser aller Business umschmeißen…“ Ich habe eine einzige Reaktion bekommen von einem anderen Producer, der schrieb: „Naja, da musste ja noch 150.000 reinstecken damit das wirklich gut aussieht, das wird niemals was werden“.

MH: Das ist so wie man immer dachte dass ein Computer so groß sein muss wie ein Wohnwagen.

SP: Ja, die Beharrungskräfte, ich weiß nicht ob aus Angst oder aus Betriebsblindheit, die sind da doch sehr stark. Wo ist eigentlich die erste AI Filmproduktion? Naja, ich hab sie ja auch noch nicht aufgemacht… Aber DU machst das! Darum Kudos nochmal dafür, das macht viel Spaß, ich bleib da dran. Danke nochmal für das Gespräch!

MH: Danke Dir!

Arbeitsteilig

Einen Location Scout hatte ich mal mit dem shooting board zum scouten geschickt, und der hat aus reinem Spaß an der Freud schonmal den gesamten Film vorgedreht auf den Locations, die er vorgeschlagen hat. Er war dann ganz geknickt, als wir stattdessen in der Studiostraße in Babelsberg drehen mußten, weil für ihn der Film eigentlich schon fertig war. Kennt ihr bestimmt auch, solche Leute: Filmemacher durch und durch, die eigentlich nur aus Zufall in ihrem Department gelandet sind, die es aber in sich tragen, ganze Filme in ihrem Kopf und manchmal auch in echt schwuppdiwupp einfach fertigzumachen.

An diesen Scout mußte ich denken, als mir neulich dieser Film von JON FINGER begegnet ist.

Wer sich das anschaut und nicht denkt: „Wow! Will ich auch!“, der ist auf jeden Fall nicht aus derselben Abteilung wie mein Scout damals. Mir macht das wahnsinnig Spaß, diese (natürlich gefakte…) Unmittelbarkeit, diese Idee, man könne mit Hilfe von AI Tools einen Film erschaffen so, wie man früher seinen Freunden auf dem Schulhof eine Geschichte vorgeturnt hat. Was ergäbe das, konsequent weitergedacht, für einen Spitzenworkflow! Erst recht dann, wenn man unseren realen Workflow dagegenhält, der ja wirklich gern mal das Gegenteil davon ist: Überkompliziert, langsam, und seeehr seeehr arbeitsteilig.

Wie arbeitsteilig wollen wir denn sein, muß man sich doch regelmäßig fragen. Na klar ist der Input von den Profis aus den einzelnen Departments super. In den Kommentaren unter Jon’s Film stapeln sich deshalb auch die erwartbaren Reaktionen im Sinne von „Nichts wird je einen guten Storyboarder/ Art Director / DOP ersetzen, etc., gnagnagna“. Aber mal ehrlich, kennt ihr nicht auch dieses Gefühl der Ermüdung, das einen anpackt, wenn man denkt: „Woo-ha, 4 Tage 14 Stunden drehen, 70 People am Set, 2 Monate Post, und das alles für 60 Sekunden Film?“

Bei den Regisseur*innen kennt ihr sicher auch die beiden Enden des Arbeitsteiligkeits-Spektrums: Die eine, die immer vor dem Monitor sitzt und sagt: „Schon ganz geil, aber können wir noch eine drehen“? Wo man sich unwillkürlich fragt ob sich heimlich die Agentur-Kreative in den Regiestuhl geschmuggelt hat? Und am anderen Ende der Skala der Roberto Rodriguez Style Regisseur, der unabgesprochen mit einer eigenen Mühle am Set auftaucht und schnell selbst mal noch ein paar alternative Takes dreht, kann man ja immer gebrauchen, ihr werdet mir dankbar sein im Schnitt! Der einen im Prep schon so sehr mit Detailgesprächen zuballert, daß man ihm am liebsten alle Jobs auf der Produktion anbieten möchte inklusive dem der Produktionsleitung?

Anyways, ich möchte gar nicht auf „Wir werden alle unseren Job verlieren“ Szenarien rumreiten. Auch das pixelschubserische Qualitätsgejammer anläßlich von Jon’s Film – „Ja, aber das wird dir kein Kunde jemals so abnehmen, weil a,b,c“ kann ich mir selber ausdenken, merci bien.

Ich finde es beim Zuschauen in erster Linie inspirierend & herzerfrischend, welche Möglichkeiten sich hier aufzeigen für einen alternativen, schnelleren, spontaneren Workflow – direkt aus dem Kopf von jemandem, der sich einen Film ausdenkt, schwuppdiwupp zum fertigen Film.

Oder?

Do Producers dream of AI enabled films?

Consumer können mehr und mehr selbst zu Producern werden, wie ich’s neulich schon bebloggt hatte. Sie müssen dafür nicht gleich ganze Filme from scratch produzieren, sie können sich zukünftig auch anhand bestehender Filme aussuchen, wie, auf welchem Level und in welchem Department sie gern in einem Film eingreifen und ihn auf diese Weise neu oder mitproduzieren wollen. Sie können sich gewissermassen so Film School mässig von der Seite des fertigen Films her an das Produzieren heranrobben.

Ich zum Beispiel verabscheue ja den seifigen und einschläfernden Vangelis-Soundtrack zu BLADE RUNNER. Das Netz ist voll von sehr emotional geführten Debatten dazu – mir versaut er tatsächlich den kompletten Film.

Die Producer’s Notes, die Ridley Scott nach seiner 3. Schnittfassung zu lesen bekam, fragten unter anderem nach „more tits“, und schon im ersten Satz: „Where is the Vangelis Music“? Die haben sie leider am Ende bekommen. Wenn ich jetzt aber in naher Zukunft Ridley Scott rächen und den Soundtrack einfach austauschen könnte: „Hey AI, unterlege mir bitte BLADE RUNNER mit einem Soundtrack im Stil der Talking Heads“? 

Zunächst hab ich ja gedacht, daß uns demnächst AI mit Reglern beim Produzieren hilft, also etwa Midjourney mit speziellen Reglern, an denen ich Brennweite, Einstellungsgröße und soweiter finetunen kann. Aber vielleicht ist es genau so spannend, wenn es analog zum Sound und Farb – Reglern an der Glotze ein paar zusätzliche AI Regler gäbe wie den „Wes-Anderson-Style-Regler“; den „Hauptdarsteller“- Regler; den „Synchronsprache“-Regler?

Das passiert ja eh bereits massenhaft, die Travestie bestehender Filme ist ein riesiges Sub-Genre des generativen AI Outputs. DUNE im Stil von Jodorovsky (der tatsächlich mal einen Anlauf dazu unternommen hatte). ALIEN im Stil von Stanley Kubrick. Und JEDER DENKBARE FILMTITEL im Stil von Wes Anderson, natürlich. Das ist beileibe nicht ohne Vorbilder aus der Vor-AI-Zeit: Der Kern des Erfolgs von NETFLIX beruht auf NETFLIX‘ Fähigkeit, Travestien und Genre-Remixes nach Uservorlieben herzustellen: „Die User gucken am liebsten Politthriller und Kevin Spacey? Dann produzieren wir ihnen einen Politthriller mit Kevin Spacey!“ Aber AI ist jetzt auf dem Weg, mehr und mehr dieser eigentlich originären Producer-Tools an die Consumer selbst auszulagern. 

Schauen wir uns das auf Basis bereits existierender Filme an. Was daran macht AI auf einmal „anfassbar“ für uns Consumer? Nehmt mir für einen Moment bitte einfach ohne weitere Link-Belege ab, daß das alles bereits erkennbar möglich ist mit AI Consumer Tools, und daß da nur noch jemand rasch ein Frontend mit ein paar Reglern entwickeln müßte bitte, an dem man all diese Faktoren gleichzeitig tweaken kann, und die AI spuckt ruckzuck nach zwei Stunden Rechenzeit einen neuen Film aus:

_Darstellerauswahl: Niemand braucht mehr MoCap, das geht auf Basis von bestehendem Video Material. Also Hauptrollen austauschen. Nebenrollen austauschen. Alle Darsteller sollen Männer sein. Frauen. Frösche.

_Musik: Easy. Ging ja schon vorher, aber jetzt trennt einem die AI auf Wunsch die einzelnen Instrumental-Spuren; das Voice Over von der Musik und den Sound FX. Also anderer Komponist; nur Instrumentals; Orchesterversion statt Surfgitarre… Das kommt als erster AI Regler sobald die Rechtefragen geklärt sind, Wetten werden noch angenommen.

_Sprache & Sprecher. Gedubbt haben die Produzenten schon früher, aber jetzt können wir’s selbst. Und die AI trennt nicht nur die Spuren dafür, sie generiert nicht nur neue Stimmen, sie passt auch die Mimik & Mundbewegungen der Darsteller an die gesprochen Sprache an. Also Saturday Night Fever mit meiner Stimme für John Travolta, und alle anderen Stimmen von Olivia Newton John.

_Art Department: Eigentlich einfacher als MoCap. Also alle Möbel sollen bitte Art Deco sein. Philipp Starck Design. Giger.

_Styling: Alle tragen Kaftane. Oder nichts. Taucheranzüge. 20er Jahre Klamotte. 

_Location: alle Strassenszenen & Häuser Exteriors Hong Kong statt Detroit. Der Wald wie in Neuseeland. Dänemark. Ägypten.

_Framing: AutoFill machts möglich, ich habe schon völlig sinnbefreite erste AI Versionen von BladeRunner im Hochformat gesehen, aber hier geht’s ja nicht um meinen eigenen Geschmack, also bitte 9:16 für alle die das interessiert, was ich lange Zeit nicht glauben konnte, scheint aber so’n heißes Ding zu sein mit dem senkrecht gucken.

_VFX: Mehr so STUDIO GHIBLI, weniger so AVENGERS… 

_Und natürlich alle Kombinationen aus den obigen Beispielen und diverse andere Details, die Leuten wichtig sind. 

Ein Beispiel gefällig? Bittesehr, hier kommen die

AI Producer’s notes von Stephan Pauly zu Ridley Scott‘s BLADE RUNNER 

Schon ganz gut, aber ich hätte da gern noch folgende Änderungen:

Hauptrolle: vielleicht mal mit Christopher Walken aus ca. 1985 besetzen (weil Harrison Ford einfach nicht gleichzeitig Indiana Jones, Han Solo und Deckard sein kann); Bösewicht: Clark Gable statt Rutger Hauer (weil Rutger Hauer eh super ist, aber ich hab schon lange keinen guten Film mehr mit Clark Gable gesehen. Wie, schon tot? Das ist doch der AI egal!) 

Aspect Ratio: Finger weg, die bleibt natürlich in 2.39:1 Cinemascope, ihr Banausen!

Art Department: alle visuellen JAPAN Referenzen in VIETNAM Referenzen umwandeln (weil der JAPAN Takeover der Welt eindeutig eine 80er Jahre Idee ist, die nie so richtig eingetreten ist, und ich einen VIETNAM – Takeover der Welt interessanter fände) 

Autos, Flugobjekte und Gebäude bitte von LUIGI COLANI designen lassen (schlicht weil’s lustig wär)

Sprache bitte mal in Südafrikanischem Englisch (siehe oben)

Musik bitte wie gesagt von den Talking Heads, gerne im Stil meines Lieblingsalbums „Remain In Light“, aber ohne Vocals.

Im Ernst: All das rauscht doch einem Filmproduzenten täglich durch die Rübe, und nicht „more tits and Vangelis“ – so jedenfalls meine romantische Vorstellung von einem Filmproduzenten, und bald kann er sie es tatsächlich einfach ausprobieren! Der irre Twist ist ab jetzt allerdings, daß das auch für uns Consumer gelten wird. Mal alle technischen und rechtlichen Fragen außen vorgelassen, gibt es einen Markt für solche customizable Filme? Ach, mir doch egal, ich möchte eigentlich nur tagelang mit meinen neuen AI Reglern an BLADE RUNNER rumspielen, aber vielleicht bin ich auch nur ein wenig anders als die anderen kleinen Kinder auf dem Spielplatz.

Welchen Film würdet ihr euch vorknöpfen?

Und an welchen Reglern möchtet ihr gern drehen können?