Artificial Film Production

Hier ist ein typischer Moment, den alle ProducerInnen da draußen schon oft genug erlebt haben: Das Agenturproducing schickt dir einen Mood-Film, an dem die Agenturkreativen lange geschnitten haben, alles auf Basis von gefundenen Szenen. Der Film hat sagenwirmal 30 Szenen an 30 unterschiedlichen Sets. Jede Szene ist nur 2-3 Sekunden lang. Es gibt 30-40 Darsteller plus 30-40 Extras. Ein Voice Over führt durch den Film, und die Szenen illustrieren, kommentieren, konterkarieren sehr clever das, was das VO sagt, geschnitten in ADHS -TikTokTempo.

Und das ist aus meiner Sicht so ein typisches Agenturding: das Konzept – die eigentliche Domäne der Agentur – ist so stark, oder, neutraler formuliert, so dominant, dass die Details der Umsetzung, also unsere Producer-Domäne, nahezu egal werden. Das funktioniert so wie es ist, weil die Text/Bild-Kombi schlau und gut geschnitten ist. Was zur Folge hat, daß man unmittelbar denkt: Ja, und was können wir da noch tun? Eigentlich könnte man das schon so auf den Sender geben. Oder auf Tiktok, whatever. Wißt ihr was ich meine? Es fühlt sich unmittelbar so an, als wäre man als Produktion überflüssig, der Film ist doch schon fertig, den muß jetzt nur noch einer mehr oder weniger genauso runterkurbeln, und die spezifischen Dinge, die Regie oder Produktion auf dem langen Weg zum fertigen Film noch beitragen könnten, werden an seiner Qualität gar nichts ändern, weil er im besten Fall schon super ist so wie er ist. Am liebsten würde man den von zwei Produktionen und Regisseurinnen umsetzen lassen, um anhand der fertigen Filme genau das zu demonstrieren, aber geht ja leider nicht.

Ja, ich weiß, es gibt in Cannes nicht umsonst einen eigenen Lion für Film Craft, und das ist auch wahnsinnig wichtig, da die weltweit besten Spezialisten ranzulassen für Regie, Casting, Production Design, Musik, Kamera etc., aber seien wir mal ehrlich: nicht immer. Wenn man noch ´ne Runde weiterdenkt, ist man bei dieser Art Moodfilmen schon fast erschöpft bei der Vorstellung, wieviel Mühe da reingehen muss, um das „nur noch“ nachzubauen. Also, radikaler Vorschlag, machen wir das doch einfach nicht, sondern sagen der Agentur: Toll gemacht, nehmt’s doch bitte einfach wie’s ist, bittschön!

Würden wir ja vielleicht auch machen, wenn uns nicht neben der Gefahr, uns selbst überflüssig zu machen, einzwei Probleme davon abhalten würden:

Problem 1: Die Rechte. Haben wir nicht, finden wir nicht, kriegen wir auch nicht. Und wenn doch, dann können wir’s uns wahrscheinlich nicht leisten.

Problem 2: Die, pardon my French, Frickelsucht der Kreativen. Besser geht halt immer: Nein, die eine Frau in shot 17 kann natürlich nicht rothaarig sein. Und der Mann in shot 22 ist zu korpulent. Und das Mobiliar ist zu 70ies und so weiter und so weiter. So weit, so egal für das Ergebnis, aber erklär das mal einem/r Kreativen!

Muß man also doch in einen „echten“ Film übersetzen, und da bleibt einem nur das übliche Prozedere, unser daily business: Riesenaufriss. Regiesuche, Pitch, Regieinterpretationen, -zig Kalkulationen, endlich dann Pitchgewinn und los geht’s mit fünfsechs Drehtagen im Osten damit’s irgendwie bezahlbar bleibt, schneiden, graden, onlinen, vertonen etc etc etc.

Und dieser Aufriss kostet ja, igitt! GELD, was gern beim Moodschnippeln erstmal ignoriert wird. Ichsagmal 800kilo bis eine Mio je nach Regie, Serviceland etc. Und da ist dann ganz schnell End of Story und lange Gesichter, erst recht wenn Agentur und Kunde denken, sie kommen mit 200k aus. Großes Staunen: Ja, wie kann das denn so teuer sein wenn man’s in echt macht, war doch so einfach zu schneiden! Aber selbst wenn nicht, selbst wenn sie wissen was es kostet, und das Geld beim Kunden locker machen können – was für ein Aufriss für eine eigentlich nur noch minimale Verbesserung, oder? Was für eine irre Diskrepanz zwischen Entwurf und Realisierung, neutraler formuliert!

Aber die Rettung ist nahe: AI wird diese Fälle für uns fixen, und zwar so gründlich, daß wir diese Filme als Produktionen gar nicht mehr auf den Tisch bekommen werden, weil sie die Agentur selber machen kann. Read my lips, Leute.

Eure Social Media Feeds werden ja auch überquellen von AI-generierten Bildern, oder? Dall.e 2, Midjourney – Text to Picture AIs mit spektakulären Ergebnissen. Noch besteht die Mehrheit der damit generierten Dinge aus schlechten Scherzen – „Thanos at Walmart, fighting a giant hamster“, Ha-ha. Noch sehen die meisten Sachen aus wie 70er Jahre Illustrationen in tschechischen SciFi Büchern. Aber das liegt nur an den Early Adoptern, die damit rumspielen, und dem Trash, der denen so durch die Birne rauscht. Lassen wir uns davon nicht täuschen: Das ist kein Spielzeug. Das ist eine Dampfwalze auf Ecstasy. Das geht jetzt rasend schnell weiter. Ich lese schon von ersten VFX Artists, die das an ihre VFX Pipeline anschliessen, die selber FLAME Plugins basteln, um das in ihren Workflow zu integrieren etc. Und die ersten „Text to BEWEGTbild“ AIs sind auch schon unterwegs (bin grade zu faul das zu verlinken: schaut mal bei Freund Timor Kardums linkedin feed vorbei, der hatte da neulich schon was in die Runde geworfen.)

Das „Text To Picture“ tool ist natürlich mindblowing, aber das tangiert ja eher die Concept Art Leute da draußen. Was im hier eingangs aufgebrachten Beispiel eher relevant ist, und was aus meiner natürlich professionell verzerrten Perspektive viel einschlägiger ist, ist die ebenfalls in der AI angelegte KERNKOMPETENZ des Agenturkreativen: nämlich VARIATIONEN sehen zu wollen. Dall.e 2 kann das in bewundernswerter Weise, schaut euch einmal an, was die aus dem Mädchen Mit dem Perlenohrring macht. Un-Friggin-Fassbar. Und wenn das bald auch für Bewegtbild und mit Menschen funktioniert, dann werden wir alle mit den Ohren schlackern. Noch schränkt Dall.e 2 das Bearbeiten von Menschen, Promis sowie diverse Schlagworte aus ethischen Erwägungen ein, aber da kommt bestimmt bald jemand aus maybe China, dem all diese Erwägungen sowas von mumpe sind, der bohrt das auf und dann geht da alles.

Und die Kombi aus all dem ist die bald einsatzbereite Werbefilm-AI, die achthunderttausend Euro schwere Lösung für das oben geschilderte Dilemma. Also, leg mal los, liebe AI:

Löse Problem eins: bearbeite alle Gesichter so, dass sie nicht mehr erkennbar sind. Damit lösen sich sämtliche Fragen nach Urheberschaft und nach dem Recht am eigenen Bild in Luft auf – wegen künstlerischer Überarbeitung, oder vielleicht sogar schon weil niemand auch nur mehr die Quelle darin wiedererkennen kann. Und das geht noch weiter, das ist radikal: Schaut mal nach dem Monkey Selfie Rechtsstreit. Auch der hat so eine Social Media – kompatible Oberfläche, wo man zuerst sagt: „Ach, guck mal, ein niedlicher Affe mit einem lustigen Selbstportrait, na und?“ Genau so erinnere ich meine erste Reaktion auf das Thema. ABER. Da hat ein Gericht in letzter Instanz geurteilt, daß der Affe, der auf den Auslöser gedrückt hat, nicht der Urheber sein kann, weil er keine juristische oder natürlich Person ist. Und damit ist laut Gericht NIEMAND der Urheber. Und dasselbe wird auch für von einer AI produzierten Content gelten: keine Person, keine Urheberschaft (schreiben jedenfalls ein paar Auskenner in WIRED, Achtung: paywall).

Will sagen: keine Rechte mehr, für die man bezahlen müsste, kein Recht Am Eigenen Bild, kein Urheberrecht. Vielleicht an dem ganzen Film dann, den ja wieder jemand zusammenschneiden muß, vertonen etc, das hat dann wieder eine gewisse Schöpfungshöhe. Aber das lässt sich der Kunde ja per total buyout von uns sowieso immer UNENTGELTLICH abtreten, anders als Darsteller, Sprecher bekommen wir kreativen Bettelmönche (Producer, Production Companies, Regisseure, Production Designer etc.) ja keinerlei eigene Vergütung für die Übertragung dieser Rechte. Wir bekommen unsere Arbeit bezahlt, und treten die Rechte am entstehenden Werk für umsonst mit ab. Das heisst, die Rechte sind schon weg – doof, wenn die Arbeit dann auch noch verschwindet.

Und dann löse auch noch Problem zwei: ENDLESS TWEAKABILITY, ein Paradies für Agenturkreative. Wenn die AI sich da eine Einstellung aus einem Moodfilm vornimmt und auf diese Einstellung die geballte AI-Power als Kombination aus „Mach mal ne Variation davon“ und der Text-to-Picture Kompetenz loslässt, die ja beide schon in den existierenden AIs angelegt sind, dann sitzen demnächst Horden von Agenturkreativen vor so einer Einstellung und tippen:

„Die Frau braucht einen Schnurrbart!“

„Der Schnurrbart könnte ruhig ein wenig länger sein. Und buschiger“.

„Mach das Wohnzimmer dahinter mal mit Teakmöbeln. Oder Eiche? Etwas heller, der Holzton. ‚Bitte‘ muß ich ja nicht schreiben, ist ja nur eine AI, oder?“

Aufgabe des Producers wäre es dann wahrscheinlich nur noch, irgendwann STOP zu rufen.

Aber, Trommelwirbel: den Film können sie dann auf Basis ihres Moodfilms ohne Produktion selber zu Ende machen, weil die beiden Probleme, die sie jetzt noch davon abhalten, nämlich die Rechtesituation und mangelnde Tweakability, gelöst sein werden.

Hoffe nur, dass sie dann das auch machen und daß die AI nicht nur benutzt wird, um die nächste Eskalationsstufe im Rüstungswettlauf um immer noch komplexere Regieinterpretationen zu zünden, die wir am Ende dann doch noch verfilmen müssen…

Anyways. Nachdem wir das jetzt ja mal als Zukunftsprognose mit 100%iger Eintrittwahrscheinlichkeit durchexerziert haben, und uns eigentlich als Produktionen schonmal darauf freuen können, daß sich diese Sorte Filme zukünftig von alleine produziert, bleibt als spannende Frage: Was bleibt denn dann eigentlich als Kernkompetenz des Filme Ausdenkens, und was als Kernkompetenz des Filme Machens übrig?

Mutmassungen und Protestgeheul bitte gern wie immer in die Kommentarspalten!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.