Hervorgehoben

ENTWERTUNG

Ich hab in letzter Zeit versucht, den Disruptionsfaktor diverser generativer AI Tools im Bereich Bewegtbild fassbarer zu machen, ein Beispiel: „Beim Look Development ist der Disruptionsfaktor 10:1 weil man mit AI LookDev in 2 Stunden statt in 2 Tagen machen kann“. Dabei dämmert es mir jetzt erst, dass „Disruptionsfaktor“ nur ein Fancy Label ist für etwas wirklich Bedrohliches: Dieser Disruptionsfaktor misst eigentlich einen Grad von ENTWERTUNG. Vielleicht sollten wir zukünftig lieber vom „Entwertungsfaktor“ sprechen. 

Entwertung von was denn genau? Entwertung von Execution. Von informierter Umsetzung, von Handarbeit, von Pixelschubsen und Organisation. „Viele Menschen machen den Fehler zu glauben, dass mit einer Idee schon 90% der Arbeit getan wäre“. Steve Jobs hat recht: das ist Bullshit. Ein Großteil der kreativen Arbeit ist Execution. Ein Großteil von dem was eine Agentur tut – ein Großteil von dem, was eine Filmproduktion tut, sowieso. Da redet man nur nicht so gerne drüber, weil das irgendwie dem Selbstbild von Kreativen zu widersprechen scheint. Was bleibt, wenn einem die Execution aus der Hand genommen wird? Ideen haben. Und die heiligen, von kreativem Geist beseelten IDEEN! IDEEN! die kann einem natürlich keiner wegnehmen. Kann sein, aber damit ist noch lange nicht alles gut. Wenn uns nämlich jemand die Execution abnimmt, dann nimmt er uns 95% unserer Arbeit weg.

Das ist in vollem Gange: Indem AI für immer mehr Umsetzung von kreativer Arbeit benutzbar ist und benutzt wird, entwertet AI unser „Portfolio“ an angebotenen Leistungen. Messbar in dem Sinne, daß potenzielle Kunden ihnen keinen Wert mehr beimessen wollen: „Das könnt ihr doch mit AI in ein paar Stunden machen“. Und sie werden immer häufiger recht damit haben. 

DAS ist die Entwertung, über die wir reden müssen. Niemand nimmt uns unsere Ideen oder unseren taste, unser kreatives Urteilsvermögen. AI nimmt uns die Execution weg, und weil Execution ein Großteil der Arbeit ist, die wir ABRECHNEN, ist das vielleicht viel bedrohlicher. Das seht ihr nur alle nicht, wenn ihr der Execution zu wenig Bedeutung beimeßt. Euer eigener Säulenheiliger Steve Jobs wäre sauer auf euch! Das werdet ihr spätestens dann spüren, wenn euch keiner mehr für Execution bezahlt und ihr im Kreis lauft und euch gegenseitig eure tollen Ideen erzählt, aber keinen mehr findet, der euch dafür eine Rechnung stellen läßt.

Was jetzt?

Man kann einen immer größer werdenden Teil seiner Zeit damit verbringen, allen zu erklären, daß das ein Wahrnehmungsproblem sei: „Guckt mal genauer hin, das AI Zeug ist gar nicht WIRKLICH so gut wie (mein) Handgemachtes“, aber das wird ein immer schwerer zu machender Punkt werden.

Man kann sich auf die immer kleiner werdende IDEEN-Insel retten und glauben, daß das AI nie, nie, wirklich nie schaffen wird: Ideen zu haben. I got bad news for you – schaut mal ins Urheberrecht. Ideen sind nicht schützenswert, meine Lieben. Ideen hat jeder, ständig. Ideen brauchen Execution, Umsetzung, damit sie eine gewisse „Schöpfungshöhe“ erreichen, wie es so schön verquast-altdeutsch heißt, damit sie als Werk schützenswert werden. Will sagen: Ideen ohne Execution sind nichts wert. Ideen hat auch mein 9jähriger jeden Tag schon ein halbes Dutzend. Vor dem Frühstück.

Immer noch skeptisch? Dann fragt doch mal Midjourney, wie wertvoll Eure Ideen sind. Oder fragt besser nicht, da sich all diese AI Tools natürlich mit derselben künstlerfreundlichen Rhetorik schmücken, das haben sie sich bei den Pimps der Musikindustrie, den Plattenfirmen, abgeschaut. „We put creators at the centre of our strategy“ habe ich neulich einen TIKTOK Avatar sagen hören. Ohne Witz. Einen Avatar, der dafür gebaut worden ist, einen menschlichen Influencer zu ersetzen. So viel coporate Kaltschnäuzigkeit & Dummdreistigkeit kann man sich gar nicht ausdenken.

Die Cover Up Story aller generativen Tools ist ja dieselbe: „Du Mensch hast tolle Ideen, die du als Prompt eintippst, und wir kümmern uns um die Execution“. Das ist schlicht gelogen, wie jede/r testen kann, indem sie „Flitzenpiependrängel“ in das Promptfeld von Midjourney tippt. MJ produziert nämlich immer irgendwas, das so aussieht, als wenn eine Idee dahinter gesteckt hätte. Andersrum macht es MJ einem sehr schwer, eine wirklich konkrete Idee konkret umzusetzen. Diese Tools ballern immer eine Execution raus, egal ob du eine Idee einspeist oder „Flitzenpiependrängel“. Die Tools BRAUCHEN keine Ideen für ihre Execution. Die sind sich tendenziell selbst genug. Die haben alle Ideen schon beim Trainiert Werden absorbiert und können sie in einem unendlichen Strom von Execution in unendlichen Variationen wieder ausspucken. Flitzenpiependrängel sieht übrigens so aus:

Und was jetzt? „Ideen“ werden uns nicht retten, wenn uns jemand die Execution aus der Hand nimmt, auch wenn das noch so mafiös nett passiert. Wenn so ein fetter Konzern dir den Arm um die Schultern legt, sanft, aber mit milliardenschwerem Nachdruck, und so kreativkumpelhaft murmelt. „Mach dir keine Sorgen, wir übernehmen das ab jetzt.“ Was sie nicht so laut sagen: Ob du willst oder nicht. Ob dir das gefällt, wie wir das machen, oder nicht. Deine Kunden haben halt gesagt, daß wir das jetzt machen sollen. Unsere Investoren auch. War nett dich kennen gelernt zu haben. Kannst gerne weiterhin tolle Ideen haben und sie gegen nur noch 30 Euro Monatsabo als Prompt in unsere Eingabefelder tippen, aber eigentlich können wir das auch selber. Machen wir ja eh schon die ganze Zeit. Darfst uns noch ein bißchen trainieren und optimieren für die letzten 5%, aber dann hau bitte ab, okay?

Wenn wir uns die Execution wegnehmen lassen, dann sind wir im Eimer. Dann bleibt uns nichts mehr übrig, als wie die 3jährigen vor einer Textbox zu sitzen und unsere „Ideen“ einzutippen: „eine schöne frau am strand bei sonnenuntergang mit GUCCI klamotte. sie hat sommersprossen.“ und aus den tausend Ergebnissen, die die AI ausspuckt, dürfen wir dann drei raussuchen und sie dem Kunden präsentieren. Klingt Scheiße? Ist es auch.

Was also wirklich jetzt?

Wir dürfen uns die Execution nicht aus der Hand nehmen lassen. Wir sind hoffentlich nicht umsonst die Master der Execution Workflows. Wir haben eine über Jahrzehnte aufgebaute Expertise darin, Ideen perfekt umzusetzen. Mehr Expertise jedenfalls, als es braucht, um aus einem Satz mit 8 Wörtern einen Shot zu erzeugen, der einigermassen glaubhaft aussieht. Expertise, die beurteilen kann, wie der Shot zum ganzen Film paßt. Ob der Shot die bestmögliche Art & Weise ist, das zu erzählen, was er an dieser Stelle im Edit erzählen muß. Etc., etc., pp. Ihr wißt wovon ich rede, und das weiß AI noch lange nicht. Wir müssen uns die AI Tools untertan machen und sie in unsere Workflows einbauen dergestalt, dass jeder sehen kann, welchen Mehrwert das erzeugt im Vergleich mit jedem X-beliebigem AI-Schrott, der heute schon durch’s Netz wabert und von absichtslosem Stock Footage kaum zu unterscheiden ist.

Oder?

Podcast Folge 7! *und 5&6 auch!

„Wann endlich kommt denn die neue Podcast-Episode raus?“ habt ihr Euch sicher schon lange gefragt. Et Voilà:

Episode 7 – Tierärzte im Weltall, Germanische Seherinnen, Tocotronic und AI-Standup Comedy: Die kunterbunte Zukunft des Filmemachens!

Nachdem Daniel, Ilka und Icke die letzten beiden Episoden uns unter die Algorithmus-Beobachter und die Psychologen begeben hatten, gibt es diesmal wieder einen Filmemacher als Gast, der… aber hört selbst!

Ein Tausendstel

Seit der AI Hype angefangen hat, versuche ich, an den ganzen ästhetischen, kreativen, gesellschaftskritischen, arbeitsmarkbezogenen und sonstigen Diskussionen absichtlich vorbeizuhören und mich stattdessen zu fragen: Was ist denn jetzt das Disruptionspotenzial von generativer AI in unserem Business? Noch genauer: Kann man da, wir sind ja schließlich Producer, irgendwie mal ’ne Zahl dranhängen bittesehr? Könnte man ja wohl mal versuchen. Schließlich hängen wir ja auch jeden Tag Zahlen an Agenturskripte, die regelmäßig kaum verbindlicher sind als die Frage „Was kostet eigentlich so ein AI Film“, also let’s go for it!

Der Regisseur Paul Trillo hat Zugang zu SORA und hat damit ein fantastisches Musikvideo gemacht, eine wahre Materialschlacht nach klassischen Maßstäben. Im FX GUIDE gibt es eine Analyse, die greifbar macht, was da auf uns zurast.

Trillo hat rund 240Minuten generiert für 4Minuten finalen Film, das macht eine shooting ratio von 60:1. Eigentlich nix Besonderes, erst recht nicht für ein Tool das noch in den Kinderschuhen steckt.

Irrerweise hat er dabei nur ein paar wenige Übergänge mit After FX getrimmt und alles gegradet, der Rest kommt so direkt aus SORA – woran man sich schon alles gewöhnt hat! Ich hab schon so Kommentare gehört wie „Holt mich nicht ab“… Ich selber bin noch beim dritten Mal Gucken geflasht von der Materialfülle, der weiredness, dem Tempo, dem Sog, den das erzeugt, aber egal: anderes Thema.

Der FX Guide hat die Kosten für die Computing-Leistung dahinter mit rund 650$ berechnet. Nicht für SORA wohlgemerkt, die haben noch gar kein Preismodell, aber für die erforderliche Computing Power, die man anhand von Tech Specs berechnen kann, die SORA veröffentlicht hat. Zu teuer für Amateure, aber ein Schnäppchen für professionelle Anwender.

Zum Vergleich: Dieses Musikvideo nach klassischen Gesetzen herzustellen ist budgetär kaum abbildbar bei der Anzahl an Szenen, Sets, Darstellern etc. 50-60 Sets; sagenwirmal 10 Drehtage, tonnenweise VFX… Egal, nehmen wir an, es hätte abgesehen von Regiegage und Konzeption, die ja für die SORA Version auch anfallen, wild guess: 650.000 gekostet, nach oben hin seeehr offen. Dagegen stehen 650 für Computingkosten.

Wenn also mal jemand das Disruptionspotenzial von Sora für den Kernbereich unseres Wirkens – das Filme Machen – mit einer Zahl versehen möchte, hier ist sie: Der Aufwand sinkt potenziell auf ein Tausendstel. BÄÄÄÄÄM!

Ist ja nur ’ne Zahl? Geht mal zu einem Autokonzern und erklärt denen, daß jemand grade eine Methode gefunden hat, ihr Auto für ein Drittel der Kosten herzustellen. Da fällt denen der Kitt aus der Brille. Bei einem Drittel, nicht bei einem Tausendstel.

Und ja, ich weiß: Es gibt X Gründe, warum das Video von Paul Trillo noch nicht so gut ist, als wenn man alle erdenklichen verfügbaren High End Tools und Realdreh dafür aktivieren würde. „Die letzten 5% sind immer die schwierigsten“, „Die Characters sind noch nicht konsistent“ etc etc yadda yadda yadda. Aber das ist doch alles MiMiMi angesichts des POTENZIALS einer Ersparnis von 1.000:1! Hallo, Kapitalismus und so???

Mal anders herum gefragt: Glaubt ihr, daß diese Ratio 1.000:1 genügend Anreiz hergibt, um Character konsistent zu machen und die letzten 5% auch noch hinzubekommen? Glaubt ihr, daß Sam Altman ein paar Milliönchen von den 7 Billionen Dollar ($7.000.000.000.000 – auch nur eine Zahl, aber eine Zahl mit 12 Nullen, mehr als ein Viertel des GDP der USA), die er für AI gern aufstellen möchte, da reinstecken wird? Wetten und Gegenwetten bitte gerne in die Kommentare.

Oh, und wer Langeweile hat, hört sich einfach unsere jüngste Podcast-Folge an (oder die davor, die ist auch super): https://www.filmmakingfuture.com

Hervorgehoben

More Risk, Less Fun

Wir gratulieren uns ja seit ein paar Jahren ständig selbst dazu, daß seit der Einführung des Kalkulationsstandards SCoPE nicht mehr über MarkUp gesprochen werde. Mach ich jetzt trotzdem mal. Hat ja auch die Kunden keineswegs davon abgehalten, uns weiterhin MarkUp-Sätze vorzugeben. Vielleicht ist das damals ja auch deshalb vergleichsweise easy bei den Kunden durchgeflutscht, weil sie sich gedacht haben: „Solange diese aufmüpfigen Werbefilmer sich an unsere komplett aus dem Ohr gezogenen MarkUp Vorgaben halten, soll es mir doch schnuppe sein, ob sie das ausweisen oder nicht!“

Ihr habt bestimmt schon viele MarkUp Definitionen gehört, aber hier kommt Producer Pauly seine Spezialdefinition: Das MarkUp einer Werbefilmproduktion setzt sich zusammen aus zwei Teilen, dem Gewinn- und Handlungskostenaufschlag, wie ihn auch eine Serviceproduktion berechnet, und einem weiteren Aufschlag, der als Risikoprämie fungiert dafür, dass wir Werbefilmproduziererinnen und -produzierer eine Preisgarantie abgeben. Das habt ihr anders gelernt? Ich kann alles erklären!

Wie geht die weltweit seit Jahrzehnten anerkannte Preisgestaltung einer ServiceProduktion? Ganz einfach: 10% ist der Preisaufschlag, den jeder Kunde schulterzuckend als die ganz normale MarkUp Fee akzeptiert, die man einer Service Produktion für ein CostPlus Projekt bezahlt. „Cost Plus“ ist ja nur eine andere Formulierung dafür, dass die Service Produktion eben keine Preisgarantie abgibt. Sie schlägt stattdessen 10% auf die tatsächlich angefallenen Kosten auf.

Auch wenn beide nahezu dieselben Kalkulationsformulare benutzen, auch wenn wir beide irgendwie von unserem MarkUp leben, unterscheidet sich unser Geschäftsmodell vor allem wegen der genannten Preisgarantie. Aber kalkulieren wir jetzt ein Line Item mit der Bezeichnung „Preisgarantieübernahmerisikoprämienaufschlag“? Nee, tun wir natürlich nicht. Der Unterschied unserer Geschäftsmodelle verbirgt sich schlicht in unserem höheren Markup.

Wie hoch muß aber der Unterschied zwischen diesen beiden Markup-Sorten sein, damit er diese  Preisgarantie belastbar abbildet? Die historische Voreinstellung in unseren Kalkulationen von 26,5 % habe ich schon sehr lange in freier Wildbahn nicht mehr gesehen. Die wahre Antwort geben Werbefilmproduktionen stattdessen jeden Tag, indem sie Angebote abgeben: deren Markup liegt sachichjetzteinfachmalsoausderLuftgegriffen irgendwo zwischen 20% und immer häufiger 15%. Frei aus der Luft gegriffene Zahlen natürlich!

So, jetzt haben wir alle Fakten zusammen: Die Prämie für die Preisübernahmegarantie liegt beim Abstand zwischen 10% Service-MarkUp und einem durchschnittlichen Werbefilmproduktions-MarkUp, vermutlich aktuell irgendwo zwischen fünf und zehn Prozent. Ist das viel? Wenig? Die meisten Werbefilmproduktionen leben ja noch, aber ich verrate sicher kein Geheimnis wenn ich sage: das ist verdammt haarscharf kalkuliert und puffert wahrlich keine großen Risiken ab, auch wenn es das eigentlich müsste.

Was bringt diese Betrachtunsgweise, diese Producer Pauly Formel vom Werbefilm-Markup = CostPlus Markup + Preisgarantie-Risikopämie? Wenn man das mal einen Moment lang so betrachtet, dann kann man auf die Entwicklung der letzten Jahre blicken – Spoiler alert: Tendenz sinkend – und konstatieren: Wenn das Werbefilm-Markup zu sehr sich den 10% des CostPlus Modells nähert, wenn also die Prämie dafür, dass wir in diesem hochvolatilen und komplett auf Kunden-Pleasing ausgerichteten Von-Der-Hand-In-Den-Mund-Business auch noch die Garantie für die Einhaltung eines abgegebenen Preises übernehmen, gegen Null sich bewegt, dann ist sie schlicht zu niedrig und damit, hier mal in Großbuchstaben, GEHT DAS AN DIE WURZEL UNSERES GESCHÄFTSMODELLS.

„Producer Pauly übertreibt“, höre ich manchen murmeln, „Preisgarantie, das ist doch nur ein Vertragsdetail, ist denn das wirklich so wichtig?“ Ich könnte da jetzt mit unserer täglichen Praxis argumentieren, schlage aber stattdessen ein gewagtes Experiment vor: fragt doch mal Eure Kunden, ob sie zum CostPlus Modell produzieren wollen, wenn sie das nächste mal mit MarkUp Vorgaben von sagichjetzteinfachmalbeispielweise 13% versuchen, die Prämie für die Preisgarantie gegen Null zu drücken. Aber setzt Euch vorher einen Integralhelm auf und zieht eine Kevlarweste an, denn die Reaktionen werden entsprechend sein. Das machen die nie. Kategorisch nicht. Never. Ever. Und warum? Nicht, weil das im Vertragsrecht so geregelt ist. Sondern weil sie genau wissen, wie wichtig es ist, die Verantwortung für das fertige Werk weder selbst in Händen zu halten, noch sie der Werbeagentur zu überlassen, sondern sie vielmehr uns Werbefilmproduzierenden umzuhängen. Dieses Wissen müsste man ihnen nur regelmäßig und immer wieder in den Arbeitsspeicher laden, indem man darauf verweist, dass es für 10% MarkUp und alles was sich dem nähert eben nur CostPlus gibt, geben KANN. Nicht weil wir den Hals nicht voll bekommen können, sondern weil die Übernahme dieses Risikos eben angemessen bepreist sein muß, damit sie aus Business Sicht verantwortbar ist.

Zwar höre ich noch meinen alten Producer-Yoda Glenn B. stolz sagen: „Wir sind Filmhersteller, keine Filmteile-Hersteller“. Aber im ernst: wenn das in absehbarer Zukunft keiner mehr angemessen bezahlt, dann sollten wir vielleicht alle kollektiv darüber nachdenken, ob wir nicht lieber auf diesen Stolz verzichten und zukünftig zum CostPlus Modell der Serviceproduktionen, der Filmteile-Hersteller, antreten.

Gatekeeper ohne Gates

Mit einem befreundeten Musikproduzenten habe ich neulich über suno.ai gesprochen, ein Tool, das auf spektakuläre Weise aus Prompts Musik mit Text macht oder deine selbstgeschriebenen Texte vertont. Probiert das unbedingt aus, kleiner Tipp: „90ies hair metal power ballad“ geht immer.

Das Gespräch endete wie eigentlich jedes Mal: Mein Freund fand, die erzeugte Musik sei noch relativ generisch, und das läge ja wohl daran, dass es viel einfacher wäre, mit AI Filme zu machen, da ginge das ja bereits. Worauf ich wie jedes Mal antwortete, das sage er immer, und das läge schlicht daran, dass er sich mit Musik besser auskennte, und ich mich mit Filmen: Aus unserer jeweiligen Profiperspektive sähen wir in unserer jeweiligen Disziplin noch die Defizite von AI; in den Nachbardisziplinen aber schon nicht mehr so richtig.

Was wird hier eigentlich verhandelt, und warum führe ich mit vielen Profis ähnliche Gespräche? Mein Verdacht: Hier geht es um unsere eingebildeten oder realen Fähigkeiten als Distinktions-Profis. Wir halten uns für diejenigen, die wissen, wie state of the art Bewegtbildproduktion geht, und wir rufen um so lauter DAS IST NICHT GUT (GENUG) je mehr wir sehen, wie das aufholt und immer besser wird. Teil unseres Tagesgeschäfts ist es ja auch immer wieder, uns als Gatekeeper zu betätigen: unseren Beurteilungsvorsprung zu verteidigen, indem wir sagen was gut ist und was nicht und indem wir uns als diejenigen anbieten, die über den heißesten State Of The Art Scheiß verfügen, gebieten, ihn anbieten können. Und nichts macht einem Gatekeeper mehr Feuer unter dem Hintern als wenn er etwas aus der Ferne herangalloppieren sieht, das potenziell jede/n da draußen zu einem Profi machen könnte in unserem ureigensten Home Turf, wenn er sieht, dass sich um ihn herum die Mauern auflösen und es vielleicht bald gar kein Gate mehr zu keepen gibt.

Beim Angriff von Social Media auf unsere Budgets konnten wir uns zum Troste immer noch sagen: „Ha, die schmarotzen doch an den von uns mitdefinierten visuellen, erzähltechnischen etc. Standards; und wenn sie so gut werden wollen wie wir, dann müssen sie nach unseren Regeln antreten, und da sind wir halt besser, harr-harr!“. Egal ob das stimmt oder nicht, und egal ob das im SoMe Kosmos jemanden interessiert (zweimal nein, übrigens), für einen Gatekeeper ist das ein irgendwie tröstlicher Gedanke. 

Aber wenn sich die AI Tools so weiter entwickeln, wie sich das abzeichnet, dann passiert da weit mehr, als daß irgendwelche SoMe Creator mit Selfies eigenen Content erzeugen und Zuschauer-Aufmerksamkeit und Kundenbudgets abgreifen; dann kann bald jede/r mit 10 Euro im Monat für ein Dischord Abo Bewegtblid produzieren, das auf unserem Niveau mitspielt. 

DARUM geht es in all diesen Gesprächen.

Oder?

Hervorgehoben

Wenn nun aber die Roboter sehr nett wären, während sie die Welt übernehmen?

Das hat sich Wired gefragt neulich, um mal einen anderen Blick auf die immer rasanter erreichten AI-Meilensteine auszuprobieren als z.B. Panik oder Kulturpessimismus. Ja, schon wieder AI, ich weiß. Aber die anderen interessanten Sachen hab ich doch alle schon weggebloggt! Oder nicht? Alternativ-Vorschläge sind natürlich herzlich willkommen. 

Diesen anderen Blick würde ich mir gerne ausborgen und ein paar Producer-Wünsche formulieren an unsere neuen AI Overlords, die schon fleißig dabei sind, unser aller Werbefilmbusiness umzukrempeln. Das gilt zwar für jede Art Business, wie ihr beispielsweise in der „2023 Expert Survey of Progress in AI“ nachlesen könnt. Aber „The future is already here, it’s just unevenly distributed”, hat William Gibson schlauerweise mal gesagt und ich glaube, daß wir Werbefilmhasen uns darauf einstellen sollten, noch vor vielen anderen eine übergroße Portion Future abzubekommen. Early adopters, early targets, wie man’s nimmt. Dear AI Overlords, hier also schonmal meine ersten, bescheidenen Wünsche:

Schluß mit der Unsicherheit! Gebt uns rechtssichere Tools, sonst können wir sie nicht benutzen. Gebt schon beim Training Eurer Tools keinen Anlass für Beschwerden. Sonst sind wir am Ende wieder auf GETTY und ADOBE angewiesen, die beide bereits jetzt rechtssichere generative AI anbieten inklusive Haftpflicht-Coverage gegen Copyright-Klagen. Wer will schon allein auf GETTY & ADOBE angewiesen sein? 

Make A Difference! Gebt uns neue Tools und Workflows, die einen solchen Unterschied machen, daß sie neuen Talenten eine Chance bieten, sich in diesem unserem Markt zu positionieren und zu etablieren. So wie das in den 90ern Email, Excel, Mobiltelefone und Laptops ermöglicht haben. Oder in den 00ern die RED Kamera One Man Shows möglich gemacht hat, die auf einmal mit ihrem eigenen Profi Tool antreten konnten.

Mehr für alle! Laßt nicht zu, daß die Marktdynamik alles an Mehrwert zu den Kunden rüberschaufelt, was wir mit Eurer Hilfe werden erzeugen können. Ein wenig davon möchten wir gern abhaben, ob in Form von weniger Arbeit für dasselbe Ergebnis, oder in Form von viel mehr Asche für ein bißchen mehr und andere Arbeit, das soll mir ganz egal sein. Ich weiß, daß ihr nicht zu hundert Prozent dafür verantwortlich seid, wem die Tools nutzen, die ihr baut – wer ist das schon – aber nur so für den Hinterkopf, vielleicht machts ja doch einen Unterschied, wenn ihr mehr an uns denkt, die wir sie benutzen wollen sollen.

Smarter Stuff statt More of The Same Stuff! Laßt es bitte nicht einreißen, daß einfach mehr von allem in die eh schon knirschenden und überkomplexen Strukturen reingepreßt wird, ohne daß irgendwer einen Cent mehr verdient – außer Euch, natürlich. Und außer den Kunden, die signifikant mehr Leistung für 20% webniger Budget abgreifen werden wollen. Ich weiß ja, dear Overlords, daß wir kleinen Konkurrenzfrettchen da unseren Anteil dran haben, daß das immer & immer wieder passiert, wir, die wir immer nur danach schielen, wer uns auf den Fersen ist getreu dem Motto „Du mußt nicht schneller sein als der Bär, der dich verfolgt; du musst nur schneller sein als die anderen“. Auch hier ist das natürlich auch eine Frage des gesamten Ökosystems, in dem wir alle uns bewegen und in dem wir alle Verantwortung tragen, aber.

Jetzt Neu! Können wir bitte gemeinsam im Blick behalten, daß wir nicht nur alten Wein in neuen Schläuchen bekommen, halt Werbefilm wie immer, aber jetzt mit AI gemacht? Daß stattdessen auch ein paar neue Formate entstehen und neue Player mit diesen neuen Formaten groß und toll werden? Da geht doch was!

Bonus-Wunsch: Ich kann das ganze Virtual Production Zeugs schon nicht mehr sehen. Das könnt ihr besser! REBEL MOON zum Beispiel sah wirklich schon sooooo oldschoolmässig aus, ich mußte regelmäßig vorspulen oder skippen oder wie das auf Netflix heißt. Helft doch bitte dem Herrn Snyder bei seinem nächsten Versuch, uralte Mythen, mittelalte SciFi Filme, Fascho-Bösewichter und Darsteller mit viel zu weißen Zähnen neu anzurühren.

Das war’s für heute erstmal, danke im Voraus, und bitte immer schön nett bleiben beim Weltherrschaft übernehmen, versprochen?

Cartoon Physics

Da hat grade ein Regisseur einen Cosmetics Film mit Hilfe einer AI „nachgedreht“, den er vor einem Jahr mit 30 Mann Team und jeder Menge Realdrehaufwand hergestellt hat. Netterweise hat er an die AI-Version eine Side-By-Side Comparison angehängt vom Original und von der AI Version.

Man kann da jetzt wieder mit dem Profi-Auge draufschauen und konstatieren, dass ja das Original total super individuell und kreativ sei, und dass die AI Version dagegen total generisch sei und ihr die letzten 5% an Rafinesse und Human Touch fehlten, die das Original so fantastisch machen. Das ist das, was verlässlich jedes Mal passiert, wenn ich mit anderen Branchenprofis das Thema diskutiere.

Das kann man noch 100 mal machen, so wie man auch gesagt hat „Digital drehen? Aber nie im Leben für Beauty Filme“. Aber wie oft noch?

Man kann das aber auch abkürzen und sich nur mal so probeweise mit folgendem Gedanken anfreunden:

Generative AI ist so weit. Die kann immer mehr insbesondere von dem generischen Bewegtbildkrempel umsetzen, der 95% dessen ausmacht, was da draußen noch immer mit riesigem Aufwand in die Welt gesetzt wird.

Und, daraus abgeleitet: Der immer kleiner werdende Unterschied zwischen Realdreh und AI Film interessiert mit Ausnahme von uns Branchenprofis wahrscheinlich immer weniger Konsumenten, und das sind diejenigen, für die das produziert wird. Das ist weder Zynismus nach Konsumentenverachtung, das ist eine sich abzeichnende Realität.

Was genau können wir als Producer nochmal? Eigentlich nur zweierlei: Wir können die Kreativen finden, die perfekt eine Idee, ein Skript zum Leben erwecken werden. Und wir beherrschen die Workflows, mit deren Hilfe diese Regie dann aus einem Skript und einem Budget einen erfolgreichen Film macht. Eine dieser beiden Kernkompetenzen scheint mir grade massiv im Umbruch zu sein.

Ihr kennt sicher den visuellen Standard-Witz aus diversen Looney Tunes Cartoons: Wile E. Coyote rast über die Klippe hinaus und rennt noch ein paar Meter weiter in der Luft über einen tiefen tiefen Abgrund, als wäre die Klippe noch da – erst als er sieht, dass er mitten im Nichts schwebt, stürzt er ab. Wenn ich jetzt abschweifen wollte, würde ich einen kurzen Exkurs über das hochinteressante Feld der Cartoon Physics einbauen (Law 1: „Any body suspended in space will remain suspended in space until made aware of its situation.“ etc.)

Das sollten wir aber in der Welt der Commercial Production Physics tunlichst vermeiden: daß wir einfach immer weitermachen als wäre nichts, während unter uns unsere Workflows wegbröseln und wir merken es erst, wenn wir schon mitten in der Luft schweben.

Hervorgehoben

AI Director im Interview: Martin Haerlin

Vor Kurzem noch habe ich darüber halluziniert gebloggt, daß in Zukunft immer mehr Filme von Centauren gemacht werden, wie sie beim Schach heißen: von Kombinationen aus Menschen und AIs. Und dann finde ich doch tatsächlich einen solchen Centaur in meinen Feeds: Martin Haerlin, Regisseur seines Zeichens, der seit einiger Zeit tolle AI Filme und Werbung macht. Den hab ich ruck-zuck gleich mal interviewt für Euch:

SP: Martin, du kommst aus dem klassischen Werbefilm als Regisseur. Was hat dich bewogen, mit AI loszulegen und die Filme zu machen, die du bisher gemacht hast?

MH: Also die wichtigste Zutat um bei KI eingestiegen zu sein dieses Jahr ist, dass man in der Werbung arbeitet und Anfang des Jahres nichts zu tun hatte. Ich habe früher mal programmiert und habe mich wieder darauf zurück besonnen: Ich hab angefangen zu programmieren. In Python, aber auf ’nem Low Level; Habe auch angefangen mich in Machine Learning reinzubasteln, kleine Kurse angeguckt und dann stieß ich auf Runway, diese Plattform die ja Machine Learning basiert ist, und wo du Videos generieren kannst. Damals war nur die GEN 1 verfügbar, wo du Videos re-stylen kannst. Ich glaube, dass mir mein Programmier-Monat am Jahresanfang die Angst genommen hat, mich damit auseinanderzusetzen.  Wäre ich jetzt im Werbesaft gestanden und hätte rund um die Uhr gedreht, dann hätte ich mir die Video KI gar nicht angeschaut.

Und ich konnte plötzlich meine eigenen kleinen Geschichten erzählen, ich musste noch nicht mal nach draußen! Es war einfach fantastisch, und dann kam in Juni GEN 2, wo man Text eingab, und dann ein Video entstand, wie bei Midjourney mit Stills ging das jetzt plötzlich mit Bewegtbild. Dann habe ich da wöchentlich einen Film gemacht, aber auch Stunden am Tag am Rechner verbracht.

SP: Kannst Du beschreiben, wie sich deine Rolle verschoben hat im Vergleich zu einer klassischen Filmproduktion? Hast du ja schon getan, du sagst „du und dein Rechner, das war’s“, oder?

MH: Es ist es ist deutlich weniger glamourös; man sitzt bucklig vorm Rechner und bastelt vor sich hin. Als ich angefangen habe im April, da haben ganz viele Leute Runway schon benutzt, aber es waren eher so die Computer Geeks, und die haben dann die zehn schönsten KI generierten Explosionen releaset.  Das hatte für mich aber erstmal keinen Use Case; es gab kaum jemanden, der Storytelling macht und KI benutzt. Und deswegen konnte ich mit meinen Filmen eine Leerstelle ausfüllen.

Mit anderen Worten: es ist irre wichtig dass man Storytelling kann, sei es als Werbe-Regisseur oder als Spielfilmregisseur, oder als Schriftsteller, und das dann kombiniert mit einem oder mehreren KI-Tools.

SP: Wie wir sehr fehlt dir der Input der anderen Department also Storyboarder, Production Designer, Kamera und so weiter?     

MH: Der Input der klassischen Departments funktioniert im Moment noch nicht in der KI-Welt. Man kann nicht sagen „Ich möchte genau so ein Wohnzimmer“, „Ich möchte genau so ein Licht“ „Ich möchte genau so eine Aktion“.

Sämtliche KI-Plattformen quatschen mit rein und machen ihr Zeug damit. Das heißt, du triffst immer wieder auf Begrenzungen, wo du dich drumrum arbeiten musst. Was aber wichtig ist, ist der Input anderer KI Leute. Ich bin überrascht wie freundlich und unterstützend die KI Community ist vor allem auf Twitter. Ich hab wieder unheimlich viel Input, aber von anderen Leuten. Welche Kamerabewegungen gehen; welche Prompts funktionieren gut; welche schlecht; was kann man ohne viel Aufwand mal eben generieren und was braucht ewig. Das heißt, der Austausch hat sich nur verschoben.

SP: Sind das Leute die wie du einen Regie-Background haben, oder ist das deutlich bunter?

MH: Ich bin einer der wenigen, die da wirklich mit seinem Klarnamen herumhantiert. Die meisten haben irgendwelche Avatare und dementsprechende Namen, aber ich glaube, dass viele aus dem Filmbereich kommen. Art Direktoren, Regisseure, einer kommt von der BBC – schreibt er – ich finde man merkt relativ schnell wo sie herkommen, wenn man deren Arbeiten sieht. Leute die wirklich Storytelling machen, die müssen aus dem Bereich sein. Die setzen sich mit Bildern auseinander. Es gibt aber auch ganz viele die machen Tests, die zeigen dann den Fallschirmsprung, den sie in KI gerechnet haben; und das hat ja auch seine Berechtigung. Ich merke: Soundso könnte man etwas erzählen. Die, die mich faszinieren, kommen wahrscheinlich aus einem ähnlichen Bereich wie wir.

SP: Die Arbeitsteiligkeit ist ja trotzdem komplett verschwunden, wenn du als Chimäre mit deinem KI Tool zusammenarbeitest. Welche der klassischen Rollen gibt’s da zukünftig für dich eigentlich? Gibt es eine Rolle für einen Producer in diesem Setup?

MH: Was ich mach ist wirklich nur auf sehr kleinem Level. Man könnte deutlich bessere KI Filme machen, wenn man im Team arbeitet. Wenn man einen Producer hat, der das kalkuliert. Wenn man einen Kameramann hat, mit dem man was zusammen dreht & das dann restylet; und dann aber auch noch in einem Text to Video Tool die Establisher macht. Eigentlich geht es mir darum zu zeigen, „Hey, KI kann ’ne Menge; Aber bitte nicht ab jetzt alle Spots in KI generieren“.

KI ist ein mächtiges Tool, mit dem man prävisualisieren kann, aber in Zukunft auch ganze Shots ersetzen kann, wofür früher die Kohle oder die Zeit nicht gereicht hat. Du kannst deine Filme viel größer machen; emotionaler, intensiver. Eigentlich gehts mir nicht darum, Departments zu ersetzen, sondern Enhancement durch das KI-Tool zu bekommen.

SP: Gestern bin ich über einen AI Film von Cadmo Quintero gestolpert, der hat klassische Departments mit reingenommen: Sören Görth hat geschnitten, DIE ZWEI haben Musik gemacht, und man merkt sofort den Input der anderen Departments. Das Heavy Lifting übernehmen in diesem Film geradezu der Schnitt und die Musik. Das macht einen Riesenunterschied.

MH: Hab ich gesehen, finde ich richtig toll. Wir haben unterschiedliche Herangehensweisen glaube ich – mir geht es erstmal darum zu zeigen, du kannst es als One-Man-Show schaffen. Ich mach absichtlich Low Tech. Ich hab in meinem letzten Re-Styling-Film absichtlich ein  Stöckchen benutzt, ich hätte auch eine Pistole nehmen können, ich habe aber extra ein Stöckchen genommen und das zu einer Pistole re-stylen lassen, ich will, dass das alles handgemacht aussieht.

Wenn da noch mehr Regie- oder Kamera Kolleginnen einsteigen würden… wir haben alle so einen Vorsprung was Filmsprache angeht, das beeinflusst den Output. Wir wissen wie wichtig Sounddesign ist, wie wichtig ’ne Close und ’ne Weite Einstellung im Wechsel sind, wir könnten richtig tolle KI Filme machen, es benutzen aber noch extrem wenige. Das ist so ein bisschen wie „Don’t Look Up“: Es WIRD kommen. Und man MUSS sich damit auseinandersetzen. Zu sagen „Ich mach’s nicht“, das ist echt gefährlich.

SP: Deinen LowFi Ansatz finde ich persönlich wahnsinnig interessant. Das was Cadmo gemacht hat, ist für mich so das Naheliegendste; das ist so ein Post Production SciFi Future Dystopia Sujet Ding, da werden die Leute vielleicht sagen „Naja, das hätte man früher in 3D gemacht oder in der Unreal Engine, jetzt macht’s halt ’ne KI, wo ist der große Unterschied?“ Aber bei dem, was du machst – das machst du nicht in UnrealEngine. Der Ansatz ist ein ganz anderer. Den finde ich persönlich total spannend weil es einem dieses Gefühl vermittelt „Geil! Let‘s Go! Ich brauch das alles nicht, film film film!“

MH: Genau! Diese Attitude möchte ich rüberbringen. Ich will es nicht als NOCH schwieriger hinstellen. Nicht: „Oha, wenn ihr KI macht, Freunde, daaaaannn langsam…“ Ich veröffentliche auch immer meine Herangehensweise.

SP: Ich habe vor allem Angst davor, dass die Industrie das vereinnahmt und sagt „uh, oh, da brauchen wir jetzt aber erstmal ein halbes Jahr“, und dann ist das wieder so wie beim Switch von Filmmaterial zu digital: du sagst “Geil, ich  muss diese blöden Filmrollen nicht mehr rumtragen und entwickeln und abtasten, Yippie!“ aber dann kommt gleich: du brauchst einen DIT; und du drehst 10x so viel Material; hast doppelt soviel Edit-Zeit etc. Da hat sich der Alte Prozeß gleich wieder so breit gemacht in dem neuen Medium, dass der Unterschied zwischen Alt und Neu sofort wieder verschwunden ist. Also die ganzen Vorteile. Darum finde ich deinen LowFi Ansatz so toll: Das macht Spaß, und das merkt man.

MH: Der Spaß ist dabei wahnsinnig wichtig, dass man andere inspiriert und ansteckt. Dass sich die Industrie da sofort wieder breit macht: Ich hoffe dass das nicht passiert.

Man muss im Moment mit KI noch sehr vorsichtig sein weil es den gesamten Prozeß der Werbung auf den Kopf stellt. Während es bei Werbung immer um Kontrolle ging – Fitting, Abnahme wie das Essen aussieht… Wir versuchen, den Zufall möglichst auszuschließen denn der Kunde hat all sein Geld zusammengekratzt und da soll dann die Schokolade fließen und die Butter schmelzen, und da darf nix schiefgehen. Und das geht mit KI nicht mehr. KI wird das auf den Kopf stellen. Wir müssen uns da mit dem Zufall, der Spontaneität arrangieren. Und ich glaube, dass sich dieser Prozeß in der Werbung durchsetzen wird. Parallel zur üblichen Kontrolle. Sone Marke wie Dr. Oetker wird nicht so schnell auf KI aufspringen; aber eine Lifestyle Marke wie H&M oder Zalando. Wenn ich sehe wie ein Model in Pink gekleidet an einer Tischtennisplatte vor einer grauen Betonwand vorbeiläuft, dann ist das ein Bild, was ich bald in KI umsetzen kann. Und dann kriege ich vielleicht eine Person, wie sie vielleicht nicht ganz im Zalando Katalog zu finden ist; aber sie hat trotzdem was Interessantes. Es wird ein neuer Prozeß entstehen, wo man Spontaneität wieder zulässt und wo man zu den Anfängen der Werbung zurückgeht, wo man einen Künstler engagiert hat und gesagt hat: „Mach uns mal in deinem Style etwas für meine Marke.“ Und da ist dann jetzt eben der KI Künstler, und dem sagt man “Mach doch mal mit deiner KI einen lustigen Film für XY“ Und dann machst du was und zeigst es denen und das ist eine total schöne Vorstellung und Zukunft, auf die ich mich freuen würde.

SP: Bin ich total bei dir. Hast du schon ein kommerzielles Projekt mit KI umgesetzt?

MH: Es kommen wahnsinnig viele Anfragen. Es ist im Moment noch schwierig, weil die immer noch die volle Kontrolle wollen. Ich hatte eine Anfrage einer Versicherung aus USA, die KI sollte da eine Traumsequenz generieren von einem PIXAR-Mädchen, das Fußball spielt. Da habe ich gesagt, den eigentlichen Film muss man normal drehen, aber von der Animation könnte man große Teile wenn nicht alles in KI machen. Da würde ich mich dann hinsetzen und das VOR dem PPM so weit vorbereiten wie möglich, damit man dann nicht erst nachher merkt, dass man die Szene wie der Fuß den Ball kickt gar nicht hinbekommt in KI, was tatsächlich nicht möglich ist. Aktionen sind noch wahnsinnig schwierig.

Ich spreche jetzt beim ADC im November; bin mit einer Argentinischen Agentur am diskutieren. Deutsche Agenturen haben sich wenige gemeldet bisher. Mit Wiedemann & Berg habe ich gesprochen.

SP: Ich beobachte die Reaktionen, da gibt es ein breites Spektrum. Andre Aimaq hat da beispielsweise auf LinkedIn bedauert, dass die Agenturen nicht streiken wie die SAG Darsteller und als Forderung formuliert, dass AI Kreationen als solche gekennzeichnet werden müssten; und am  anderen Ende des Spektrums sind dann Menschen wie du oder der lustige John Finger, der auch dieses Let’s-go-for-it Ding laufen hat – wie siehst du diese Diskussion?

MH: Schwierige Diskussion. Seit Jahrzehnten werden in Hollywood Menschen über VFX dupliziert. In Mittelerde sind nicht 40.000 Orks gerannt, und der Film ist 25 Jahre alt. Es gab da schon immer Tricks. Die SAG Geschichte – so wie ich sie verstehe – ist, dass es darum geht, dass Komparsen von KI ersetzt werden.

Ich hab neulich mit einem Synchronsprecher dieselbe Diskussion geführt. Meine Kinder haben mal Synchronsprecher 2 Sätze für Netflix gesprochen. Sowas wird ziemlich sicher von KI ersetzt werden. Da muss ich aber auch sagen: Da geht kein Kunstform flöten. Das waren Teenager, keine Synchronsprecher auf einem hohen Level. Die werden in absehbarer Zeit nicht ersetzt werden. Die ganzen Nuancierungen kannst du so nicht Prompten. Das gleiche gilt für Schauspielerei. Wenn Komparserie verschwindet, verschwindet auch da keine Kunstform, sondern ein total netter Nebenjob.

Menschen können nur von Menschen gespielt werden, wenn sie eine emotionale Rolle haben, aber wenn man 20.000 Menschen zeigen will, die mit Schwertern herumrennen, dann kann man natürlich KI benutzen. Da verschwinden Jobs, die vor 120 Jahren auch im Handwerk verschwunden sind.

Du kannst auch jetzt einen handgewebtem Teppich aus der Manufaktur haben, aber auch einen Teppich von IKEA.

Und dasselbe wird es auch bei uns geben: Handgefertigte Filme von toller Crew gemacht; oder maschinengemachte Filme und Kreation. Das wird in diese zwei Kategorien zerfallen.

SP: Hast du Empfehlungen wo man dranbleiben sollte?

MH: Jon Finger ist toll.  Nikolas Neubert hat einen tollen Trailer gemacht, Christian Fleischer hat einen der ersten Gen2 Filme gemacht: THE GREAT CATSPY. Als ich das gesehen habe war ich so begeistert. Auf Twitter gibt es eine tolle Community, unbedingt einen Account holen. Aber, Rückfrage, wie siehst du das denn mit KI & Jobs ersetzen?

SP: Der kommerzielle Druck, das umzusetzen, was möglich ist, ist so groß, dass du dich nur entscheiden kannst, mitzumachen oder den Laden abzusperren. Wir als Werbefilmproduzenten sind überhaupt nicht in der Position, da Forderungen aufzustellen. Das klingt vielelicht defätistisch, aber wir drehen unsere Werbefilme auch im  Ostblock, weil da der Oberbeleuchter nur die Hälfte kostet. Das ist so. Das kann man Scheiße finden, aber man kann sich nur entscheiden, da mitzuspielen oder raus zu sein. Das muss man sich natürlich immer wieder neu fragen: „Mach ich DABEI dann auch noch mit, oder lasse ich’s dann lieber sein?“

Ich glaube, das wird sich verschieben, das Nicht Ersetzbare wird immer weniger werden – was muss man mit echten Menschen machen? Immer weniger. Das frisst sich ja schon von unten in unsere Departments rein. Stock Footage, Moodscouts, Storyboards, in die Kreation selbst – JVM hat grade eine KI Hyundai Kampagne gemacht. Das kommt aus allen Richtungen auf uns zu. Und die wirtschaftlichen Incentives, das zu machen, sind so stark, wie wir’s beim Switch zu digitalem Drehen erlebt haben, und das in Potenz. Da geht’s nicht darum, dass man jetzt 1.500 Euro für eine Abtastung spart. Da geht’s darum, dass man bestimmte Filme so macht, so wie Martin Haerlin sie jetzt schon macht, nämlich als One-Man-Show in einer Woche am Rechner. Mit einer guten Idee und einer guten KI und Feierabend. Da brauchste nicht nach Kapstadt weil das Wetter da schön ist im Winter.

MH: Was jetzt easy geht ist: du kannst jetzt einem Weingut einen 30-Sekünder über Trauben im Herbst machen. Das würde dich eine Stunde kosten, und die können das auf ihre Social Media Seite stellen. Man kann also jetzt auch Filme machen für alle die, die sich bisher keine Filme leisten konnten.

SP: Ich glaube diese positive Vision gibst da auch, dass sich da ganz viele neue Arten ergeben werden, mit denen man sein Geld verdienen kann. Es wird Zugang geben für Leute, die vorher keinen Zugang hatten. Die Location Scout geworden sind, obwohl sie vielleicht ein besseres Auge haben als mancher Kameramann. Da werden die Karten neu gemischt. Und es werden Jobs entstehen, die wir uns noch nicht vorstellen können, genau wie sich die Pferdekutscher den Tankwart noch nicht vorstellen konnten.

MH: Ich bin nach wie vor verblüfft wie klein das Interesse aus Deutschland ist.

SP: Ich hab’s am eigenen Leib erfahren. Ich hab THE GERAT CASTPY gesehen und gedacht „Also jetzt schlägst dreizehn“. Das habe ich allen geschickt, die mir einfielen und hab geschrieben: „Ihr MÜSST EUCH DAS ANGUCKEN. So in Stresser-Großbuchstaben. Das wird sowas von unser aller Business umschmeißen…“ Ich habe eine einzige Reaktion bekommen von einem anderen Producer, der schrieb: „Naja, da musste ja noch 150.000 reinstecken damit das wirklich gut aussieht, das wird niemals was werden“.

MH: Das ist so wie man immer dachte dass ein Computer so groß sein muss wie ein Wohnwagen.

SP: Ja, die Beharrungskräfte, ich weiß nicht ob aus Angst oder aus Betriebsblindheit, die sind da doch sehr stark. Wo ist eigentlich die erste AI Filmproduktion? Naja, ich hab sie ja auch noch nicht aufgemacht… Aber DU machst das! Darum Kudos nochmal dafür, das macht viel Spaß, ich bleib da dran. Danke nochmal für das Gespräch!

MH: Danke Dir!

Do Producers dream of AI enabled films?

Consumer können mehr und mehr selbst zu Producern werden, wie ich’s neulich schon bebloggt hatte. Sie müssen dafür nicht gleich ganze Filme from scratch produzieren, sie können sich zukünftig auch anhand bestehender Filme aussuchen, wie, auf welchem Level und in welchem Department sie gern in einem Film eingreifen und ihn auf diese Weise neu oder mitproduzieren wollen. Sie können sich gewissermassen so Film School mässig von der Seite des fertigen Films her an das Produzieren heranrobben.

Ich zum Beispiel verabscheue ja den seifigen und einschläfernden Vangelis-Soundtrack zu BLADE RUNNER. Das Netz ist voll von sehr emotional geführten Debatten dazu – mir versaut er tatsächlich den kompletten Film.

Die Producer’s Notes, die Ridley Scott nach seiner 3. Schnittfassung zu lesen bekam, fragten unter anderem nach „more tits“, und schon im ersten Satz: „Where is the Vangelis Music“? Die haben sie leider am Ende bekommen. Wenn ich jetzt aber in naher Zukunft Ridley Scott rächen und den Soundtrack einfach austauschen könnte: „Hey AI, unterlege mir bitte BLADE RUNNER mit einem Soundtrack im Stil der Talking Heads“? 

Zunächst hab ich ja gedacht, daß uns demnächst AI mit Reglern beim Produzieren hilft, also etwa Midjourney mit speziellen Reglern, an denen ich Brennweite, Einstellungsgröße und soweiter finetunen kann. Aber vielleicht ist es genau so spannend, wenn es analog zum Sound und Farb – Reglern an der Glotze ein paar zusätzliche AI Regler gäbe wie den „Wes-Anderson-Style-Regler“; den „Hauptdarsteller“- Regler; den „Synchronsprache“-Regler?

Das passiert ja eh bereits massenhaft, die Travestie bestehender Filme ist ein riesiges Sub-Genre des generativen AI Outputs. DUNE im Stil von Jodorovsky (der tatsächlich mal einen Anlauf dazu unternommen hatte). ALIEN im Stil von Stanley Kubrick. Und JEDER DENKBARE FILMTITEL im Stil von Wes Anderson, natürlich. Das ist beileibe nicht ohne Vorbilder aus der Vor-AI-Zeit: Der Kern des Erfolgs von NETFLIX beruht auf NETFLIX‘ Fähigkeit, Travestien und Genre-Remixes nach Uservorlieben herzustellen: „Die User gucken am liebsten Politthriller und Kevin Spacey? Dann produzieren wir ihnen einen Politthriller mit Kevin Spacey!“ Aber AI ist jetzt auf dem Weg, mehr und mehr dieser eigentlich originären Producer-Tools an die Consumer selbst auszulagern. 

Schauen wir uns das auf Basis bereits existierender Filme an. Was daran macht AI auf einmal „anfassbar“ für uns Consumer? Nehmt mir für einen Moment bitte einfach ohne weitere Link-Belege ab, daß das alles bereits erkennbar möglich ist mit AI Consumer Tools, und daß da nur noch jemand rasch ein Frontend mit ein paar Reglern entwickeln müßte bitte, an dem man all diese Faktoren gleichzeitig tweaken kann, und die AI spuckt ruckzuck nach zwei Stunden Rechenzeit einen neuen Film aus:

_Darstellerauswahl: Niemand braucht mehr MoCap, das geht auf Basis von bestehendem Video Material. Also Hauptrollen austauschen. Nebenrollen austauschen. Alle Darsteller sollen Männer sein. Frauen. Frösche.

_Musik: Easy. Ging ja schon vorher, aber jetzt trennt einem die AI auf Wunsch die einzelnen Instrumental-Spuren; das Voice Over von der Musik und den Sound FX. Also anderer Komponist; nur Instrumentals; Orchesterversion statt Surfgitarre… Das kommt als erster AI Regler sobald die Rechtefragen geklärt sind, Wetten werden noch angenommen.

_Sprache & Sprecher. Gedubbt haben die Produzenten schon früher, aber jetzt können wir’s selbst. Und die AI trennt nicht nur die Spuren dafür, sie generiert nicht nur neue Stimmen, sie passt auch die Mimik & Mundbewegungen der Darsteller an die gesprochen Sprache an. Also Saturday Night Fever mit meiner Stimme für John Travolta, und alle anderen Stimmen von Olivia Newton John.

_Art Department: Eigentlich einfacher als MoCap. Also alle Möbel sollen bitte Art Deco sein. Philipp Starck Design. Giger.

_Styling: Alle tragen Kaftane. Oder nichts. Taucheranzüge. 20er Jahre Klamotte. 

_Location: alle Strassenszenen & Häuser Exteriors Hong Kong statt Detroit. Der Wald wie in Neuseeland. Dänemark. Ägypten.

_Framing: AutoFill machts möglich, ich habe schon völlig sinnbefreite erste AI Versionen von BladeRunner im Hochformat gesehen, aber hier geht’s ja nicht um meinen eigenen Geschmack, also bitte 9:16 für alle die das interessiert, was ich lange Zeit nicht glauben konnte, scheint aber so’n heißes Ding zu sein mit dem senkrecht gucken.

_VFX: Mehr so STUDIO GHIBLI, weniger so AVENGERS… 

_Und natürlich alle Kombinationen aus den obigen Beispielen und diverse andere Details, die Leuten wichtig sind. 

Ein Beispiel gefällig? Bittesehr, hier kommen die

AI Producer’s notes von Stephan Pauly zu Ridley Scott‘s BLADE RUNNER 

Schon ganz gut, aber ich hätte da gern noch folgende Änderungen:

Hauptrolle: vielleicht mal mit Christopher Walken aus ca. 1985 besetzen (weil Harrison Ford einfach nicht gleichzeitig Indiana Jones, Han Solo und Deckard sein kann); Bösewicht: Clark Gable statt Rutger Hauer (weil Rutger Hauer eh super ist, aber ich hab schon lange keinen guten Film mehr mit Clark Gable gesehen. Wie, schon tot? Das ist doch der AI egal!) 

Aspect Ratio: Finger weg, die bleibt natürlich in 2.39:1 Cinemascope, ihr Banausen!

Art Department: alle visuellen JAPAN Referenzen in VIETNAM Referenzen umwandeln (weil der JAPAN Takeover der Welt eindeutig eine 80er Jahre Idee ist, die nie so richtig eingetreten ist, und ich einen VIETNAM – Takeover der Welt interessanter fände) 

Autos, Flugobjekte und Gebäude bitte von LUIGI COLANI designen lassen (schlicht weil’s lustig wär)

Sprache bitte mal in Südafrikanischem Englisch (siehe oben)

Musik bitte wie gesagt von den Talking Heads, gerne im Stil meines Lieblingsalbums „Remain In Light“, aber ohne Vocals.

Im Ernst: All das rauscht doch einem Filmproduzenten täglich durch die Rübe, und nicht „more tits and Vangelis“ – so jedenfalls meine romantische Vorstellung von einem Filmproduzenten, und bald kann er sie es tatsächlich einfach ausprobieren! Der irre Twist ist ab jetzt allerdings, daß das auch für uns Consumer gelten wird. Mal alle technischen und rechtlichen Fragen außen vorgelassen, gibt es einen Markt für solche customizable Filme? Ach, mir doch egal, ich möchte eigentlich nur tagelang mit meinen neuen AI Reglern an BLADE RUNNER rumspielen, aber vielleicht bin ich auch nur ein wenig anders als die anderen kleinen Kinder auf dem Spielplatz.

Welchen Film würdet ihr euch vorknöpfen?

Und an welchen Reglern möchtet ihr gern drehen können?

Wer MACHT einen Werbefilm?

Eine ganz einfache, leicht zu beantwortende Frage, je nachdem, wen man fragt. Der Kreativdirektor, natürlich. Der Produzent? Die Regisseurin selbstverständlich! Aber ich spreche gar nicht von diesen bizarren Credit-Posts auf LinkedIn, Instagram et. al., wo immer mehr Väter des Erfolges zu sehen sind als man kennt, und immer die Hälfte der UmsetzerInnen zu fehlen scheint. Viel interessanter sind da die Verschiebungen, die ich im Prozeß beobachte.

FRÜHER ™, also grob gesprochen noch in den Nuller Jahren, habe ich auch aus den großen Kreativ-Agenturen quasi fertige Filme auf den Tisch bekommen, die wir „nur noch“ drehen mußten: jede Einstellung war gezeichnet und vom Kunden verabschiedet; so weit bereits ausdiskutiert, daß man die Storyboard-Frames als Animatic hintereinander gehängt und mithilfe von MaFo-Tests NOCH endgültiger gegen Kritik und Verbesserungen abgesichert hatte, bevor sie überhaupt an uns Produktionen, an eine Regie rausgegangen sind. Was haben wir gefightet um auch nur EINEN Frame zu addieren, oder gar einen zu verlieren! „Wir drehen die Alternative mal mit, vielleicht können wir sie ja im Schnitt davon überzeugen“, was für ein Kampf, was für ein Krampf!

Das gibt’s ja auch immer noch, und ich bekomme immer einen leichten Anflug von Nostalgie bei solchen Skripten. Dazu gehört aber zugegebenermaßen auch die harte Realität, dass das meist eher die nicht ganz so geilen Filme sind, die so daherkommen. Die Antwort auf meine  Eingangsfrage bei diesem Prozeß ist jedenfalls relativ einfach: den Film hat zu großen Teilen eigentlich schon die Agentur gemacht, und wir durften ihn „nur noch“ umsetzen.

Fast Forward 2023: Ich sehe gefühlt immer häufiger „Filmkonzepte“ aus seriösen Agenturen, die 150 seitige Keynotes sind. Mehr Fragen als Antworten. Kein einziger gescribbelter Frame, Storyboards oder gar Animatics weit & breit nicht in Sicht. Möglicherweise, weil die Agentur bereits alle Energie darauf verwendet hat, die Heilige Asset Liste zu vervollständigen („und dann noch 28x 10Sekunden Cutdowns für Insta; und die Youtube Prerolls nicht vergessen“)? Ist das Faulheit, Zeitmangel, Ratlosigkeit, „Schwächen im Abschluß“, wie das im Fußball heißt? Oder das Prinzip „Death by Zuballern“ – den Kunden mit einer so langen Präse beschießen, daß er nach Seite 100 die Hände hebt und sagt „jajaja, kommt wieder wenn ihr einen Film habt, ich kann nicht mehr“. 

Neiiiin, das ist es natürlich nicht! Ich will lieber an das Gute auch im Kreativen glauben und sage: das ist vielmehr jedes Mal die Chance für eine gute Regisseurin, die selbstverständlich von einer sehr guten Produktion gebackt wird, sich einen wirklich guten Film auszudenken. Denn, zurück zur Ausgangsfrage, wer macht dann den Film? Die, die das können: Regie & Produktion im Rahmen eines von der Agentur freundlicherweise im Vorfeld mit viel Arbeit etablierten Raums von Möglichkeiten.

Da kann, muß also das Machen wieder deutlich auf unsere Seite rüberwandern. Auch wenn uns keiner dafür bezahlt, daß wir uns den kompletten Film inzwischen regelmäßig from scratch selbst ausdenken (dürfen), ist das ja erstmal eine gute Sache, oder nicht?

In comes AI. Wenn das vielgefürchtete Animatic ein Angriff der Kreation auf die Exekution war – „schaut her, der Film ist quasi schon fertig!“, dann kann man mit generativer AI eine entgegengesetzte Bewegung beobachten, eine Art Angriff der Exekution, des Machens, auf die Kreation. „Was, wenn im Hintergrund Supermann durch‘s Bild fliegt und einen rosa Zwerg-Gorilla auf dem Highway absetzt, der mit Bananen um sich wirft?“ FRÜHER ™ konnten Kreative das nur denken & sagen; jetzt können sie das innerhalb von einer Viertelstunde auch schon visualisieren, MACHEN, und direkt den Effekt der bereits umgesetzten Idee ausprobieren. 

Und dann? Wenn das wirklich verkauft ist, braucht es nur noch jemanden, der’s auch nach allen Regeln der Kunst umsetzt, sprich: gut macht. Da hat mir neulich jemand aus einer befreundeten VFX Company etwas zugeworfen im Sinne von: „Goldene Zeiten kommen auf uns zu! Warum? Weil die Agenturen mithilfe der neuen generativen AI Tools den Kunden immer mehr sehr avanciertes, sehr ausgearbeitetes Zeug verkaufen, und anschließend händeringend nach Profis suchen, die das auf einem Profi-Level auch umgesetzt – GEMACHT – bekommen“. 

Yippieh! Oder? Wie auch immer: die Stellen, an denen der Film gemacht wird, und die Sichtweisen darauf – von Producern, von Regisseuren, von Kreativen – sind jedenfalls erneut gehörig in Bewegung geraten, und diese Bewegung wird sich nochmal rasant beschleunigen und verstärken.