Hervorgehoben

Die nächste Trainingsrunde: Jetzt müssen die Profis ran

Letztes Jahr habe ich mal eine obskure Firma ausgecheckt, die offensichtlich im großen Stil das Training von LLMs an jeden deutschen Muttersprachler ausgelagert hat, der irgendwie einen Internetzugang besaß (weitere Qualifikationen waren da nicht erforderlich). Das war so ein bisschen wie die „In Welchen Bildern Siehst Du Ein Fahrrad“ Puzzle, aber mit Text. Und überraschenderweise für echtes Geld. Komplett wirr und so chaotisch aufgesetzt, dass man sich nicht vorstellen konnte, wie aus so einem verkorksten Prozess irgendeine valide Information für irgendwas sich extrahieren lassen sollte, aber auch slightly unterhaltsam. Ich habe das nach zwei Stunden milden Interesses schnell meiner Tochter umgehängt, die damit ihr Taschengeld aufgebessert hat. Wenn ChatGPT also für euch manchmal wie ein 13-jähriges, sehr meinungsstarkes und dabei oft schlechtgelauntes Teenagermädchen klingt: Sorry, das war ich. 

Aber jetzt wird’s ernst! Die LLMs sind ja inzwischen offenbar mit allem trainiert, was nicht bei drei auf den Bäumen war – Internet ist alle. Benedict Evans hat grade diesen Bloomberg-Artikel verlinkt, der davon berichtet, dass OpenAI diversen Ex-Bankern 150 Dollar die Stunde zahlt dafür, dass sie OpenAI’s LLM beibringen, was da draußen im Netz nicht sowieso schon rumschwirrt. Aber Banker scheinen nicht die einzigen zu sein, die auf bisher unzugänglichen Informationen = Trainingsdaten hocken.

Wir hatten im Podcast ja mal den sehr schlauen Prof Björn Stockleben von der Filmuni Babelsberg zu Gast, der damals sehr zu meiner Beruhigung darauf hinwies, dass zwar die Regisseure, Editoren und DPs ein echtes Problem hätten, weil ihr Zeug tonnenweise und allgemein zugänglich im Netz zu finden sei und damit auch als Trainingsdaten für die gierigen Techkonzern-AIs zur Verfügung stünde; dass aber wir Producer mit unseren spezifischen Daten traditionell deutlich restriktiver umgingen – niemand kann sich bisher auf YouTube anschauen, wie man denn eine belastbare Kalkulation für drei Drehtage in Kapstadt für einen Autofilm aufsetzt. 

Das scheint inzwischen auch OpenAI oder irgendwelchen anderen Techkonzernen aufgefallen zu sein. Mein LinkedIn Channel wird seit Kurzem geflutet von „Jobangeboten“ einer Company namens MERCOR, die für AI Hersteller nach Experten aus unserer Domain sucht: Executive Producer, Film Production Specialist, Film Producer, Series Producer, Independent Filmmaker, Senior Producer, Line Producer, Producer, Screenwriter, Editor, Post Production Supervisor etc.* Worum geht’s? Darum, einer AI beizubringen, wie die genannten Jobs funktionieren. Da versucht also gerade ein AI Entwickler, im Bereich Film alles Wissen sich einzuverleiben, was er bisher aus YouTube, Netflix etc. noch nicht klauen extrahieren konnte.

Damit sind wir wieder am Anfang des Fear Cycles in Sachen AI: „How would you turn an AI model into an expert in your domain?“ ist der Titel des angedrohten AI Job Interviews. Oder anders formuliert: „Verrate uns, wie wir dich überflüssig machen können, im Internet haben wir leider zu wenig dazu gefunden“. Klingt irgendwie nach Verrat und sich-ins-eigene-Fleisch-schneiden, aber ich habe da mal ein Fax hingeschickt. Ich habe da ja schließlich einige goldene Weisheiten aus einigen Jahrzehnten gut abgehangenen Producerwissens zu bieten wie „Bleib Up Top Date damit, welches Restaurant deine Kunden wohl am Besten finden werden“ und „Immer 3% billiger anbieten als die Mitbewerber“. Mal sehen, ob sie rausrücken damit, in wessen Auftrag sie eigentlich unterwegs sind. Keeping you posted!

*Meine Lieblings-AI Gemini hat mir inzwischen verraten, daß die Company Mercor selbst wohl legit ist (mit 10 Milliarden USD bewertet; die Üblichen Verdächtigen Investoren wie Peter Thiel etc.). Aber jetzt kommt der Twist: diverse Applikanten haben bereits vermutet, daß die Ausschreibungen keine echten Jobs bewerben, sondern daß sie lediglich Mercors Interview-AI optimieren sollen. Klingt krank, aber nicht abwegig. 

**Ein weiterer Bloomberg-Artikel zum selben Thema: „Ex McKinsey Consultants are training models to replace them“

Hervorgehoben

Agentic Directing

Agentic AI soll ja das ganz große Ding für 2025 sein, aber ist da was in Sicht in Sachen Filmemachen?

Keine Agenten in Sicht, sag ich mal: Momentan sind AI Workflows verflucht komplexe Setups, bei denen schon jetzt diverse AIs zusammegestöpselt werden: mit Gemini einen Prompt schreiben, der mir in Midjourney das bestmögliche Bild macht; dann dieses Bild in die nächste AI füttern, sagen wir KLING, um eine Bewegtbildsequenz daraus zu erstellen; dann mit Elevenlabs vertonen etc.

Das kannst du dir per Hand puzzeln, das ist alle paar Tage neu; du kannst in Foren & mit Freunden heisse Tips austauschen was wofür am besten ist. Du kannst auch schon diverse Produkte nutzen, die bei der Integration der Arbeitsschritte helfen, Canvasses wie Flora oder Freepik, die viele AIs in einer Oberfläche zusammenführen; Suites wie LTX, die in einem integrierten System alle Arbeitsschritte des Filmschaffens zusammenführen – Storyboarding, Shoterstellung, Kameradirections, Grading, Edit etc…

Der neueste Shit:  ChatGPT und Gemini sind nicht mehr promptbasiert, sondern „conversational“ und integrieren Workflows in den generativen Prozeß wie „mach mal das Shirt anders“: sie sind also auf dem Weg von der Slot Machine – immer alles neu – hin zu einem non-destructive workflow, bei dem ich Details verändern kann anstatt immer wieder von Null zu starten.

ABER. Agentic? Was noch immer so ist, egal in welchem Ökosystem du da unterwegs bist: Du brauchst selber eine Vision, eine Idee. Und du mußt sie auch umsetzen, du mußt also Director sein, und deinen AIs directions geben. Aber wer ist schon ein Director? Moment, was war nochmal die große Prediction für 2025? Ach ja, das Jahr von Agentic AI.

Aktuell ist ja das Versprechen von AGENTIC AI eher, daß demnächst ein AI AGENT autonom meinen nächsten Trip nach Paris für mich organisiert, und dabei meine diätetischen & hoteltechnischen Vorlieben, Timingvorgaben und Airlinepräferenzen berücksichtigt, aber warum nicht einen Schritt weitergehen – was ist eigentlich mit AGENTIC DIRECTION?

Warum eigentlich kann ich nicht einen Regie-AI-Agenten trainieren? Einfach zwei Jahre lang alle Regie-Ratgeber, Filmhandbücher, Oscar-Filme, Making Ofs, Proseminar-Transkripte der HFF und Restaurant-Präferenzen für Barcelona füttern und LOS GEHT’S:

Liebe Regie-AI, hier ist meine Filmidee: „Aliens wollen Justin Bieber entführen, um auf ihrem Heimatplaneten eine Justin Bieber Mania auszulösen, entführen aber aus Versehen nur sein Karaoke-Lookalike, und dann bricht die Hölle los auf Bragulon Kappa“

So, kann ich das bitte einmal als Wes Anderson Film sehen? Oder nee, doch eher eine Tarrantino-Splatter-Komödie. Und jetzt doch eher mal so mit katholischen Schuldgefühlen als Scorcese-Drama. Schockt nicht. Lars Von Trier?

Wartet’s ab, genau so wird es kommen, und wenn nur deshalb, weil ich’s lustig fände. Mal sehn ob es dann noch `ne Producer-AI gibt, die beim Umsetzen hilft – wahrscheinlich auch wegrationalisiert – „Dafür reicht das Budget leider nicht“ kann die AI auch selber Feedbacken.

Weniger lustig: Ich glaube WIRKLICH, daß sowas kommen wird. Und ihr?

Hervorgehoben

ENTWERTUNG

Ich hab in letzter Zeit versucht, den Disruptionsfaktor diverser generativer AI Tools im Bereich Bewegtbild fassbarer zu machen, ein Beispiel: „Beim Look Development ist der Disruptionsfaktor 10:1 weil man mit AI LookDev in 2 Stunden statt in 2 Tagen machen kann“. Dabei dämmert es mir jetzt erst, dass „Disruptionsfaktor“ nur ein Fancy Label ist für etwas wirklich Bedrohliches: Dieser Disruptionsfaktor misst eigentlich einen Grad von ENTWERTUNG. Vielleicht sollten wir zukünftig lieber vom „Entwertungsfaktor“ sprechen. 

Entwertung von was denn genau? Entwertung von Execution. Von informierter Umsetzung, von Handarbeit, von Pixelschubsen und Organisation. „Viele Menschen machen den Fehler zu glauben, dass mit einer Idee schon 90% der Arbeit getan wäre“. Steve Jobs hat recht: das ist Bullshit. Ein Großteil der kreativen Arbeit ist Execution. Ein Großteil von dem was eine Agentur tut – ein Großteil von dem, was eine Filmproduktion tut, sowieso. Da redet man nur nicht so gerne drüber, weil das irgendwie dem Selbstbild von Kreativen zu widersprechen scheint. Was bleibt, wenn einem die Execution aus der Hand genommen wird? Ideen haben. Und die heiligen, von kreativem Geist beseelten IDEEN! IDEEN! die kann einem natürlich keiner wegnehmen. Kann sein, aber damit ist noch lange nicht alles gut. Wenn uns nämlich jemand die Execution abnimmt, dann nimmt er uns 95% unserer Arbeit weg.

Das ist in vollem Gange: Indem AI für immer mehr Umsetzung von kreativer Arbeit benutzbar ist und benutzt wird, entwertet AI unser „Portfolio“ an angebotenen Leistungen. Messbar in dem Sinne, daß potenzielle Kunden ihnen keinen Wert mehr beimessen wollen: „Das könnt ihr doch mit AI in ein paar Stunden machen“. Und sie werden immer häufiger recht damit haben. 

DAS ist die Entwertung, über die wir reden müssen. Niemand nimmt uns unsere Ideen oder unseren taste, unser kreatives Urteilsvermögen. AI nimmt uns die Execution weg, und weil Execution ein Großteil der Arbeit ist, die wir ABRECHNEN, ist das vielleicht viel bedrohlicher. Das seht ihr nur alle nicht, wenn ihr der Execution zu wenig Bedeutung beimeßt. Euer eigener Säulenheiliger Steve Jobs wäre sauer auf euch! Das werdet ihr spätestens dann spüren, wenn euch keiner mehr für Execution bezahlt und ihr im Kreis lauft und euch gegenseitig eure tollen Ideen erzählt, aber keinen mehr findet, der euch dafür eine Rechnung stellen läßt.

Was jetzt?

Man kann einen immer größer werdenden Teil seiner Zeit damit verbringen, allen zu erklären, daß das ein Wahrnehmungsproblem sei: „Guckt mal genauer hin, das AI Zeug ist gar nicht WIRKLICH so gut wie (mein) Handgemachtes“, aber das wird ein immer schwerer zu machender Punkt werden.

Man kann sich auf die immer kleiner werdende IDEEN-Insel retten und glauben, daß das AI nie, nie, wirklich nie schaffen wird: Ideen zu haben. I got bad news for you – schaut mal ins Urheberrecht. Ideen sind nicht schützenswert, meine Lieben. Ideen hat jeder, ständig. Ideen brauchen Execution, Umsetzung, damit sie eine gewisse „Schöpfungshöhe“ erreichen, wie es so schön verquast-altdeutsch heißt, damit sie als Werk schützenswert werden. Will sagen: Ideen ohne Execution sind nichts wert. Ideen hat auch mein 9jähriger jeden Tag schon ein halbes Dutzend. Vor dem Frühstück.

Immer noch skeptisch? Dann fragt doch mal Midjourney, wie wertvoll Eure Ideen sind. Oder fragt besser nicht, da sich all diese AI Tools natürlich mit derselben künstlerfreundlichen Rhetorik schmücken, das haben sie sich bei den Pimps der Musikindustrie, den Plattenfirmen, abgeschaut. „We put creators at the centre of our strategy“ habe ich neulich einen TIKTOK Avatar sagen hören. Ohne Witz. Einen Avatar, der dafür gebaut worden ist, einen menschlichen Influencer zu ersetzen. So viel coporate Kaltschnäuzigkeit & Dummdreistigkeit kann man sich gar nicht ausdenken.

Die Cover Up Story aller generativen Tools ist ja dieselbe: „Du Mensch hast tolle Ideen, die du als Prompt eintippst, und wir kümmern uns um die Execution“. Das ist schlicht gelogen, wie jede/r testen kann, indem sie „Flitzenpiependrängel“ in das Promptfeld von Midjourney tippt. MJ produziert nämlich immer irgendwas, das so aussieht, als wenn eine Idee dahinter gesteckt hätte. Andersrum macht es MJ einem sehr schwer, eine wirklich konkrete Idee konkret umzusetzen. Diese Tools ballern immer eine Execution raus, egal ob du eine Idee einspeist oder „Flitzenpiependrängel“. Die Tools BRAUCHEN keine Ideen für ihre Execution. Die sind sich tendenziell selbst genug. Die haben alle Ideen schon beim Trainiert Werden absorbiert und können sie in einem unendlichen Strom von Execution in unendlichen Variationen wieder ausspucken. Flitzenpiependrängel sieht übrigens so aus:

Und was jetzt? „Ideen“ werden uns nicht retten, wenn uns jemand die Execution aus der Hand nimmt, auch wenn das noch so mafiös nett passiert. Wenn so ein fetter Konzern dir den Arm um die Schultern legt, sanft, aber mit milliardenschwerem Nachdruck, und so kreativkumpelhaft murmelt. „Mach dir keine Sorgen, wir übernehmen das ab jetzt.“ Was sie nicht so laut sagen: Ob du willst oder nicht. Ob dir das gefällt, wie wir das machen, oder nicht. Deine Kunden haben halt gesagt, daß wir das jetzt machen sollen. Unsere Investoren auch. War nett dich kennen gelernt zu haben. Kannst gerne weiterhin tolle Ideen haben und sie gegen nur noch 30 Euro Monatsabo als Prompt in unsere Eingabefelder tippen, aber eigentlich können wir das auch selber. Machen wir ja eh schon die ganze Zeit. Darfst uns noch ein bißchen trainieren und optimieren für die letzten 5%, aber dann hau bitte ab, okay?

Wenn wir uns die Execution wegnehmen lassen, dann sind wir im Eimer. Dann bleibt uns nichts mehr übrig, als wie die 3jährigen vor einer Textbox zu sitzen und unsere „Ideen“ einzutippen: „eine schöne frau am strand bei sonnenuntergang mit GUCCI klamotte. sie hat sommersprossen.“ und aus den tausend Ergebnissen, die die AI ausspuckt, dürfen wir dann drei raussuchen und sie dem Kunden präsentieren. Klingt Scheiße? Ist es auch.

Was also wirklich jetzt?

Wir dürfen uns die Execution nicht aus der Hand nehmen lassen. Wir sind hoffentlich nicht umsonst die Master der Execution Workflows. Wir haben eine über Jahrzehnte aufgebaute Expertise darin, Ideen perfekt umzusetzen. Mehr Expertise jedenfalls, als es braucht, um aus einem Satz mit 8 Wörtern einen Shot zu erzeugen, der einigermassen glaubhaft aussieht. Expertise, die beurteilen kann, wie der Shot zum ganzen Film paßt. Ob der Shot die bestmögliche Art & Weise ist, das zu erzählen, was er an dieser Stelle im Edit erzählen muß. Etc., etc., pp. Ihr wißt wovon ich rede, und das weiß AI noch lange nicht. Wir müssen uns die AI Tools untertan machen und sie in unsere Workflows einbauen dergestalt, dass jeder sehen kann, welchen Mehrwert das erzeugt im Vergleich mit jedem X-beliebigem AI-Schrott, der heute schon durch’s Netz wabert und von absichtslosem Stock Footage kaum zu unterscheiden ist.

Oder?

Hervorgehoben

More Risk, Less Fun

Wir gratulieren uns ja seit ein paar Jahren ständig selbst dazu, daß seit der Einführung des Kalkulationsstandards SCoPE nicht mehr über MarkUp gesprochen werde. Mach ich jetzt trotzdem mal. Hat ja auch die Kunden keineswegs davon abgehalten, uns weiterhin MarkUp-Sätze vorzugeben. Vielleicht ist das damals ja auch deshalb vergleichsweise easy bei den Kunden durchgeflutscht, weil sie sich gedacht haben: „Solange diese aufmüpfigen Werbefilmer sich an unsere komplett aus dem Ohr gezogenen MarkUp Vorgaben halten, soll es mir doch schnuppe sein, ob sie das ausweisen oder nicht!“

Ihr habt bestimmt schon viele MarkUp Definitionen gehört, aber hier kommt Producer Pauly seine Spezialdefinition: Das MarkUp einer Werbefilmproduktion setzt sich zusammen aus zwei Teilen, dem Gewinn- und Handlungskostenaufschlag, wie ihn auch eine Serviceproduktion berechnet, und einem weiteren Aufschlag, der als Risikoprämie fungiert dafür, dass wir Werbefilmproduziererinnen und -produzierer eine Preisgarantie abgeben. Das habt ihr anders gelernt? Ich kann alles erklären!

Wie geht die weltweit seit Jahrzehnten anerkannte Preisgestaltung einer ServiceProduktion? Ganz einfach: 10% ist der Preisaufschlag, den jeder Kunde schulterzuckend als die ganz normale MarkUp Fee akzeptiert, die man einer Service Produktion für ein CostPlus Projekt bezahlt. „Cost Plus“ ist ja nur eine andere Formulierung dafür, dass die Service Produktion eben keine Preisgarantie abgibt. Sie schlägt stattdessen 10% auf die tatsächlich angefallenen Kosten auf.

Auch wenn beide nahezu dieselben Kalkulationsformulare benutzen, auch wenn wir beide irgendwie von unserem MarkUp leben, unterscheidet sich unser Geschäftsmodell vor allem wegen der genannten Preisgarantie. Aber kalkulieren wir jetzt ein Line Item mit der Bezeichnung „Preisgarantieübernahmerisikoprämienaufschlag“? Nee, tun wir natürlich nicht. Der Unterschied unserer Geschäftsmodelle verbirgt sich schlicht in unserem höheren Markup.

Wie hoch muß aber der Unterschied zwischen diesen beiden Markup-Sorten sein, damit er diese  Preisgarantie belastbar abbildet? Die historische Voreinstellung in unseren Kalkulationen von 26,5 % habe ich schon sehr lange in freier Wildbahn nicht mehr gesehen. Die wahre Antwort geben Werbefilmproduktionen stattdessen jeden Tag, indem sie Angebote abgeben: deren Markup liegt sachichjetzteinfachmalsoausderLuftgegriffen irgendwo zwischen 20% und immer häufiger 15%. Frei aus der Luft gegriffene Zahlen natürlich!

So, jetzt haben wir alle Fakten zusammen: Die Prämie für die Preisübernahmegarantie liegt beim Abstand zwischen 10% Service-MarkUp und einem durchschnittlichen Werbefilmproduktions-MarkUp, vermutlich aktuell irgendwo zwischen fünf und zehn Prozent. Ist das viel? Wenig? Die meisten Werbefilmproduktionen leben ja noch, aber ich verrate sicher kein Geheimnis wenn ich sage: das ist verdammt haarscharf kalkuliert und puffert wahrlich keine großen Risiken ab, auch wenn es das eigentlich müsste.

Was bringt diese Betrachtunsgweise, diese Producer Pauly Formel vom Werbefilm-Markup = CostPlus Markup + Preisgarantie-Risikopämie? Wenn man das mal einen Moment lang so betrachtet, dann kann man auf die Entwicklung der letzten Jahre blicken – Spoiler alert: Tendenz sinkend – und konstatieren: Wenn das Werbefilm-Markup zu sehr sich den 10% des CostPlus Modells nähert, wenn also die Prämie dafür, dass wir in diesem hochvolatilen und komplett auf Kunden-Pleasing ausgerichteten Von-Der-Hand-In-Den-Mund-Business auch noch die Garantie für die Einhaltung eines abgegebenen Preises übernehmen, gegen Null sich bewegt, dann ist sie schlicht zu niedrig und damit, hier mal in Großbuchstaben, GEHT DAS AN DIE WURZEL UNSERES GESCHÄFTSMODELLS.

„Producer Pauly übertreibt“, höre ich manchen murmeln, „Preisgarantie, das ist doch nur ein Vertragsdetail, ist denn das wirklich so wichtig?“ Ich könnte da jetzt mit unserer täglichen Praxis argumentieren, schlage aber stattdessen ein gewagtes Experiment vor: fragt doch mal Eure Kunden, ob sie zum CostPlus Modell produzieren wollen, wenn sie das nächste mal mit MarkUp Vorgaben von sagichjetzteinfachmalbeispielweise 13% versuchen, die Prämie für die Preisgarantie gegen Null zu drücken. Aber setzt Euch vorher einen Integralhelm auf und zieht eine Kevlarweste an, denn die Reaktionen werden entsprechend sein. Das machen die nie. Kategorisch nicht. Never. Ever. Und warum? Nicht, weil das im Vertragsrecht so geregelt ist. Sondern weil sie genau wissen, wie wichtig es ist, die Verantwortung für das fertige Werk weder selbst in Händen zu halten, noch sie der Werbeagentur zu überlassen, sondern sie vielmehr uns Werbefilmproduzierenden umzuhängen. Dieses Wissen müsste man ihnen nur regelmäßig und immer wieder in den Arbeitsspeicher laden, indem man darauf verweist, dass es für 10% MarkUp und alles was sich dem nähert eben nur CostPlus gibt, geben KANN. Nicht weil wir den Hals nicht voll bekommen können, sondern weil die Übernahme dieses Risikos eben angemessen bepreist sein muß, damit sie aus Business Sicht verantwortbar ist.

Zwar höre ich noch meinen alten Producer-Yoda Glenn B. stolz sagen: „Wir sind Filmhersteller, keine Filmteile-Hersteller“. Aber im ernst: wenn das in absehbarer Zukunft keiner mehr angemessen bezahlt, dann sollten wir vielleicht alle kollektiv darüber nachdenken, ob wir nicht lieber auf diesen Stolz verzichten und zukünftig zum CostPlus Modell der Serviceproduktionen, der Filmteile-Hersteller, antreten.

Hervorgehoben

Wenn nun aber die Roboter sehr nett wären, während sie die Welt übernehmen?

Das hat sich Wired gefragt neulich, um mal einen anderen Blick auf die immer rasanter erreichten AI-Meilensteine auszuprobieren als z.B. Panik oder Kulturpessimismus. Ja, schon wieder AI, ich weiß. Aber die anderen interessanten Sachen hab ich doch alle schon weggebloggt! Oder nicht? Alternativ-Vorschläge sind natürlich herzlich willkommen. 

Diesen anderen Blick würde ich mir gerne ausborgen und ein paar Producer-Wünsche formulieren an unsere neuen AI Overlords, die schon fleißig dabei sind, unser aller Werbefilmbusiness umzukrempeln. Das gilt zwar für jede Art Business, wie ihr beispielsweise in der „2023 Expert Survey of Progress in AI“ nachlesen könnt. Aber „The future is already here, it’s just unevenly distributed”, hat William Gibson schlauerweise mal gesagt und ich glaube, daß wir Werbefilmhasen uns darauf einstellen sollten, noch vor vielen anderen eine übergroße Portion Future abzubekommen. Early adopters, early targets, wie man’s nimmt. Dear AI Overlords, hier also schonmal meine ersten, bescheidenen Wünsche:

Schluß mit der Unsicherheit! Gebt uns rechtssichere Tools, sonst können wir sie nicht benutzen. Gebt schon beim Training Eurer Tools keinen Anlass für Beschwerden. Sonst sind wir am Ende wieder auf GETTY und ADOBE angewiesen, die beide bereits jetzt rechtssichere generative AI anbieten inklusive Haftpflicht-Coverage gegen Copyright-Klagen. Wer will schon allein auf GETTY & ADOBE angewiesen sein? 

Make A Difference! Gebt uns neue Tools und Workflows, die einen solchen Unterschied machen, daß sie neuen Talenten eine Chance bieten, sich in diesem unserem Markt zu positionieren und zu etablieren. So wie das in den 90ern Email, Excel, Mobiltelefone und Laptops ermöglicht haben. Oder in den 00ern die RED Kamera One Man Shows möglich gemacht hat, die auf einmal mit ihrem eigenen Profi Tool antreten konnten.

Mehr für alle! Laßt nicht zu, daß die Marktdynamik alles an Mehrwert zu den Kunden rüberschaufelt, was wir mit Eurer Hilfe werden erzeugen können. Ein wenig davon möchten wir gern abhaben, ob in Form von weniger Arbeit für dasselbe Ergebnis, oder in Form von viel mehr Asche für ein bißchen mehr und andere Arbeit, das soll mir ganz egal sein. Ich weiß, daß ihr nicht zu hundert Prozent dafür verantwortlich seid, wem die Tools nutzen, die ihr baut – wer ist das schon – aber nur so für den Hinterkopf, vielleicht machts ja doch einen Unterschied, wenn ihr mehr an uns denkt, die wir sie benutzen wollen sollen.

Smarter Stuff statt More of The Same Stuff! Laßt es bitte nicht einreißen, daß einfach mehr von allem in die eh schon knirschenden und überkomplexen Strukturen reingepreßt wird, ohne daß irgendwer einen Cent mehr verdient – außer Euch, natürlich. Und außer den Kunden, die signifikant mehr Leistung für 20% webniger Budget abgreifen werden wollen. Ich weiß ja, dear Overlords, daß wir kleinen Konkurrenzfrettchen da unseren Anteil dran haben, daß das immer & immer wieder passiert, wir, die wir immer nur danach schielen, wer uns auf den Fersen ist getreu dem Motto „Du mußt nicht schneller sein als der Bär, der dich verfolgt; du musst nur schneller sein als die anderen“. Auch hier ist das natürlich auch eine Frage des gesamten Ökosystems, in dem wir alle uns bewegen und in dem wir alle Verantwortung tragen, aber.

Jetzt Neu! Können wir bitte gemeinsam im Blick behalten, daß wir nicht nur alten Wein in neuen Schläuchen bekommen, halt Werbefilm wie immer, aber jetzt mit AI gemacht? Daß stattdessen auch ein paar neue Formate entstehen und neue Player mit diesen neuen Formaten groß und toll werden? Da geht doch was!

Bonus-Wunsch: Ich kann das ganze Virtual Production Zeugs schon nicht mehr sehen. Das könnt ihr besser! REBEL MOON zum Beispiel sah wirklich schon sooooo oldschoolmässig aus, ich mußte regelmäßig vorspulen oder skippen oder wie das auf Netflix heißt. Helft doch bitte dem Herrn Snyder bei seinem nächsten Versuch, uralte Mythen, mittelalte SciFi Filme, Fascho-Bösewichter und Darsteller mit viel zu weißen Zähnen neu anzurühren.

Das war’s für heute erstmal, danke im Voraus, und bitte immer schön nett bleiben beim Weltherrschaft übernehmen, versprochen?

Hervorgehoben

AI Director im Interview: Martin Haerlin

Vor Kurzem noch habe ich darüber halluziniert gebloggt, daß in Zukunft immer mehr Filme von Centauren gemacht werden, wie sie beim Schach heißen: von Kombinationen aus Menschen und AIs. Und dann finde ich doch tatsächlich einen solchen Centaur in meinen Feeds: Martin Haerlin, Regisseur seines Zeichens, der seit einiger Zeit tolle AI Filme und Werbung macht. Den hab ich ruck-zuck gleich mal interviewt für Euch:

SP: Martin, du kommst aus dem klassischen Werbefilm als Regisseur. Was hat dich bewogen, mit AI loszulegen und die Filme zu machen, die du bisher gemacht hast?

MH: Also die wichtigste Zutat um bei KI eingestiegen zu sein dieses Jahr ist, dass man in der Werbung arbeitet und Anfang des Jahres nichts zu tun hatte. Ich habe früher mal programmiert und habe mich wieder darauf zurück besonnen: Ich hab angefangen zu programmieren. In Python, aber auf ’nem Low Level; Habe auch angefangen mich in Machine Learning reinzubasteln, kleine Kurse angeguckt und dann stieß ich auf Runway, diese Plattform die ja Machine Learning basiert ist, und wo du Videos generieren kannst. Damals war nur die GEN 1 verfügbar, wo du Videos re-stylen kannst. Ich glaube, dass mir mein Programmier-Monat am Jahresanfang die Angst genommen hat, mich damit auseinanderzusetzen.  Wäre ich jetzt im Werbesaft gestanden und hätte rund um die Uhr gedreht, dann hätte ich mir die Video KI gar nicht angeschaut.

Und ich konnte plötzlich meine eigenen kleinen Geschichten erzählen, ich musste noch nicht mal nach draußen! Es war einfach fantastisch, und dann kam in Juni GEN 2, wo man Text eingab, und dann ein Video entstand, wie bei Midjourney mit Stills ging das jetzt plötzlich mit Bewegtbild. Dann habe ich da wöchentlich einen Film gemacht, aber auch Stunden am Tag am Rechner verbracht.

SP: Kannst Du beschreiben, wie sich deine Rolle verschoben hat im Vergleich zu einer klassischen Filmproduktion? Hast du ja schon getan, du sagst „du und dein Rechner, das war’s“, oder?

MH: Es ist es ist deutlich weniger glamourös; man sitzt bucklig vorm Rechner und bastelt vor sich hin. Als ich angefangen habe im April, da haben ganz viele Leute Runway schon benutzt, aber es waren eher so die Computer Geeks, und die haben dann die zehn schönsten KI generierten Explosionen releaset.  Das hatte für mich aber erstmal keinen Use Case; es gab kaum jemanden, der Storytelling macht und KI benutzt. Und deswegen konnte ich mit meinen Filmen eine Leerstelle ausfüllen.

Mit anderen Worten: es ist irre wichtig dass man Storytelling kann, sei es als Werbe-Regisseur oder als Spielfilmregisseur, oder als Schriftsteller, und das dann kombiniert mit einem oder mehreren KI-Tools.

SP: Wie wir sehr fehlt dir der Input der anderen Department also Storyboarder, Production Designer, Kamera und so weiter?     

MH: Der Input der klassischen Departments funktioniert im Moment noch nicht in der KI-Welt. Man kann nicht sagen „Ich möchte genau so ein Wohnzimmer“, „Ich möchte genau so ein Licht“ „Ich möchte genau so eine Aktion“.

Sämtliche KI-Plattformen quatschen mit rein und machen ihr Zeug damit. Das heißt, du triffst immer wieder auf Begrenzungen, wo du dich drumrum arbeiten musst. Was aber wichtig ist, ist der Input anderer KI Leute. Ich bin überrascht wie freundlich und unterstützend die KI Community ist vor allem auf Twitter. Ich hab wieder unheimlich viel Input, aber von anderen Leuten. Welche Kamerabewegungen gehen; welche Prompts funktionieren gut; welche schlecht; was kann man ohne viel Aufwand mal eben generieren und was braucht ewig. Das heißt, der Austausch hat sich nur verschoben.

SP: Sind das Leute die wie du einen Regie-Background haben, oder ist das deutlich bunter?

MH: Ich bin einer der wenigen, die da wirklich mit seinem Klarnamen herumhantiert. Die meisten haben irgendwelche Avatare und dementsprechende Namen, aber ich glaube, dass viele aus dem Filmbereich kommen. Art Direktoren, Regisseure, einer kommt von der BBC – schreibt er – ich finde man merkt relativ schnell wo sie herkommen, wenn man deren Arbeiten sieht. Leute die wirklich Storytelling machen, die müssen aus dem Bereich sein. Die setzen sich mit Bildern auseinander. Es gibt aber auch ganz viele die machen Tests, die zeigen dann den Fallschirmsprung, den sie in KI gerechnet haben; und das hat ja auch seine Berechtigung. Ich merke: Soundso könnte man etwas erzählen. Die, die mich faszinieren, kommen wahrscheinlich aus einem ähnlichen Bereich wie wir.

SP: Die Arbeitsteiligkeit ist ja trotzdem komplett verschwunden, wenn du als Chimäre mit deinem KI Tool zusammenarbeitest. Welche der klassischen Rollen gibt’s da zukünftig für dich eigentlich? Gibt es eine Rolle für einen Producer in diesem Setup?

MH: Was ich mach ist wirklich nur auf sehr kleinem Level. Man könnte deutlich bessere KI Filme machen, wenn man im Team arbeitet. Wenn man einen Producer hat, der das kalkuliert. Wenn man einen Kameramann hat, mit dem man was zusammen dreht & das dann restylet; und dann aber auch noch in einem Text to Video Tool die Establisher macht. Eigentlich geht es mir darum zu zeigen, „Hey, KI kann ’ne Menge; Aber bitte nicht ab jetzt alle Spots in KI generieren“.

KI ist ein mächtiges Tool, mit dem man prävisualisieren kann, aber in Zukunft auch ganze Shots ersetzen kann, wofür früher die Kohle oder die Zeit nicht gereicht hat. Du kannst deine Filme viel größer machen; emotionaler, intensiver. Eigentlich gehts mir nicht darum, Departments zu ersetzen, sondern Enhancement durch das KI-Tool zu bekommen.

SP: Gestern bin ich über einen AI Film von Cadmo Quintero gestolpert, der hat klassische Departments mit reingenommen: Sören Görth hat geschnitten, DIE ZWEI haben Musik gemacht, und man merkt sofort den Input der anderen Departments. Das Heavy Lifting übernehmen in diesem Film geradezu der Schnitt und die Musik. Das macht einen Riesenunterschied.

MH: Hab ich gesehen, finde ich richtig toll. Wir haben unterschiedliche Herangehensweisen glaube ich – mir geht es erstmal darum zu zeigen, du kannst es als One-Man-Show schaffen. Ich mach absichtlich Low Tech. Ich hab in meinem letzten Re-Styling-Film absichtlich ein  Stöckchen benutzt, ich hätte auch eine Pistole nehmen können, ich habe aber extra ein Stöckchen genommen und das zu einer Pistole re-stylen lassen, ich will, dass das alles handgemacht aussieht.

Wenn da noch mehr Regie- oder Kamera Kolleginnen einsteigen würden… wir haben alle so einen Vorsprung was Filmsprache angeht, das beeinflusst den Output. Wir wissen wie wichtig Sounddesign ist, wie wichtig ’ne Close und ’ne Weite Einstellung im Wechsel sind, wir könnten richtig tolle KI Filme machen, es benutzen aber noch extrem wenige. Das ist so ein bisschen wie „Don’t Look Up“: Es WIRD kommen. Und man MUSS sich damit auseinandersetzen. Zu sagen „Ich mach’s nicht“, das ist echt gefährlich.

SP: Deinen LowFi Ansatz finde ich persönlich wahnsinnig interessant. Das was Cadmo gemacht hat, ist für mich so das Naheliegendste; das ist so ein Post Production SciFi Future Dystopia Sujet Ding, da werden die Leute vielleicht sagen „Naja, das hätte man früher in 3D gemacht oder in der Unreal Engine, jetzt macht’s halt ’ne KI, wo ist der große Unterschied?“ Aber bei dem, was du machst – das machst du nicht in UnrealEngine. Der Ansatz ist ein ganz anderer. Den finde ich persönlich total spannend weil es einem dieses Gefühl vermittelt „Geil! Let‘s Go! Ich brauch das alles nicht, film film film!“

MH: Genau! Diese Attitude möchte ich rüberbringen. Ich will es nicht als NOCH schwieriger hinstellen. Nicht: „Oha, wenn ihr KI macht, Freunde, daaaaannn langsam…“ Ich veröffentliche auch immer meine Herangehensweise.

SP: Ich habe vor allem Angst davor, dass die Industrie das vereinnahmt und sagt „uh, oh, da brauchen wir jetzt aber erstmal ein halbes Jahr“, und dann ist das wieder so wie beim Switch von Filmmaterial zu digital: du sagst “Geil, ich  muss diese blöden Filmrollen nicht mehr rumtragen und entwickeln und abtasten, Yippie!“ aber dann kommt gleich: du brauchst einen DIT; und du drehst 10x so viel Material; hast doppelt soviel Edit-Zeit etc. Da hat sich der Alte Prozeß gleich wieder so breit gemacht in dem neuen Medium, dass der Unterschied zwischen Alt und Neu sofort wieder verschwunden ist. Also die ganzen Vorteile. Darum finde ich deinen LowFi Ansatz so toll: Das macht Spaß, und das merkt man.

MH: Der Spaß ist dabei wahnsinnig wichtig, dass man andere inspiriert und ansteckt. Dass sich die Industrie da sofort wieder breit macht: Ich hoffe dass das nicht passiert.

Man muss im Moment mit KI noch sehr vorsichtig sein weil es den gesamten Prozeß der Werbung auf den Kopf stellt. Während es bei Werbung immer um Kontrolle ging – Fitting, Abnahme wie das Essen aussieht… Wir versuchen, den Zufall möglichst auszuschließen denn der Kunde hat all sein Geld zusammengekratzt und da soll dann die Schokolade fließen und die Butter schmelzen, und da darf nix schiefgehen. Und das geht mit KI nicht mehr. KI wird das auf den Kopf stellen. Wir müssen uns da mit dem Zufall, der Spontaneität arrangieren. Und ich glaube, dass sich dieser Prozeß in der Werbung durchsetzen wird. Parallel zur üblichen Kontrolle. Sone Marke wie Dr. Oetker wird nicht so schnell auf KI aufspringen; aber eine Lifestyle Marke wie H&M oder Zalando. Wenn ich sehe wie ein Model in Pink gekleidet an einer Tischtennisplatte vor einer grauen Betonwand vorbeiläuft, dann ist das ein Bild, was ich bald in KI umsetzen kann. Und dann kriege ich vielleicht eine Person, wie sie vielleicht nicht ganz im Zalando Katalog zu finden ist; aber sie hat trotzdem was Interessantes. Es wird ein neuer Prozeß entstehen, wo man Spontaneität wieder zulässt und wo man zu den Anfängen der Werbung zurückgeht, wo man einen Künstler engagiert hat und gesagt hat: „Mach uns mal in deinem Style etwas für meine Marke.“ Und da ist dann jetzt eben der KI Künstler, und dem sagt man “Mach doch mal mit deiner KI einen lustigen Film für XY“ Und dann machst du was und zeigst es denen und das ist eine total schöne Vorstellung und Zukunft, auf die ich mich freuen würde.

SP: Bin ich total bei dir. Hast du schon ein kommerzielles Projekt mit KI umgesetzt?

MH: Es kommen wahnsinnig viele Anfragen. Es ist im Moment noch schwierig, weil die immer noch die volle Kontrolle wollen. Ich hatte eine Anfrage einer Versicherung aus USA, die KI sollte da eine Traumsequenz generieren von einem PIXAR-Mädchen, das Fußball spielt. Da habe ich gesagt, den eigentlichen Film muss man normal drehen, aber von der Animation könnte man große Teile wenn nicht alles in KI machen. Da würde ich mich dann hinsetzen und das VOR dem PPM so weit vorbereiten wie möglich, damit man dann nicht erst nachher merkt, dass man die Szene wie der Fuß den Ball kickt gar nicht hinbekommt in KI, was tatsächlich nicht möglich ist. Aktionen sind noch wahnsinnig schwierig.

Ich spreche jetzt beim ADC im November; bin mit einer Argentinischen Agentur am diskutieren. Deutsche Agenturen haben sich wenige gemeldet bisher. Mit Wiedemann & Berg habe ich gesprochen.

SP: Ich beobachte die Reaktionen, da gibt es ein breites Spektrum. Andre Aimaq hat da beispielsweise auf LinkedIn bedauert, dass die Agenturen nicht streiken wie die SAG Darsteller und als Forderung formuliert, dass AI Kreationen als solche gekennzeichnet werden müssten; und am  anderen Ende des Spektrums sind dann Menschen wie du oder der lustige John Finger, der auch dieses Let’s-go-for-it Ding laufen hat – wie siehst du diese Diskussion?

MH: Schwierige Diskussion. Seit Jahrzehnten werden in Hollywood Menschen über VFX dupliziert. In Mittelerde sind nicht 40.000 Orks gerannt, und der Film ist 25 Jahre alt. Es gab da schon immer Tricks. Die SAG Geschichte – so wie ich sie verstehe – ist, dass es darum geht, dass Komparsen von KI ersetzt werden.

Ich hab neulich mit einem Synchronsprecher dieselbe Diskussion geführt. Meine Kinder haben mal Synchronsprecher 2 Sätze für Netflix gesprochen. Sowas wird ziemlich sicher von KI ersetzt werden. Da muss ich aber auch sagen: Da geht kein Kunstform flöten. Das waren Teenager, keine Synchronsprecher auf einem hohen Level. Die werden in absehbarer Zeit nicht ersetzt werden. Die ganzen Nuancierungen kannst du so nicht Prompten. Das gleiche gilt für Schauspielerei. Wenn Komparserie verschwindet, verschwindet auch da keine Kunstform, sondern ein total netter Nebenjob.

Menschen können nur von Menschen gespielt werden, wenn sie eine emotionale Rolle haben, aber wenn man 20.000 Menschen zeigen will, die mit Schwertern herumrennen, dann kann man natürlich KI benutzen. Da verschwinden Jobs, die vor 120 Jahren auch im Handwerk verschwunden sind.

Du kannst auch jetzt einen handgewebtem Teppich aus der Manufaktur haben, aber auch einen Teppich von IKEA.

Und dasselbe wird es auch bei uns geben: Handgefertigte Filme von toller Crew gemacht; oder maschinengemachte Filme und Kreation. Das wird in diese zwei Kategorien zerfallen.

SP: Hast du Empfehlungen wo man dranbleiben sollte?

MH: Jon Finger ist toll.  Nikolas Neubert hat einen tollen Trailer gemacht, Christian Fleischer hat einen der ersten Gen2 Filme gemacht: THE GREAT CATSPY. Als ich das gesehen habe war ich so begeistert. Auf Twitter gibt es eine tolle Community, unbedingt einen Account holen. Aber, Rückfrage, wie siehst du das denn mit KI & Jobs ersetzen?

SP: Der kommerzielle Druck, das umzusetzen, was möglich ist, ist so groß, dass du dich nur entscheiden kannst, mitzumachen oder den Laden abzusperren. Wir als Werbefilmproduzenten sind überhaupt nicht in der Position, da Forderungen aufzustellen. Das klingt vielelicht defätistisch, aber wir drehen unsere Werbefilme auch im  Ostblock, weil da der Oberbeleuchter nur die Hälfte kostet. Das ist so. Das kann man Scheiße finden, aber man kann sich nur entscheiden, da mitzuspielen oder raus zu sein. Das muss man sich natürlich immer wieder neu fragen: „Mach ich DABEI dann auch noch mit, oder lasse ich’s dann lieber sein?“

Ich glaube, das wird sich verschieben, das Nicht Ersetzbare wird immer weniger werden – was muss man mit echten Menschen machen? Immer weniger. Das frisst sich ja schon von unten in unsere Departments rein. Stock Footage, Moodscouts, Storyboards, in die Kreation selbst – JVM hat grade eine KI Hyundai Kampagne gemacht. Das kommt aus allen Richtungen auf uns zu. Und die wirtschaftlichen Incentives, das zu machen, sind so stark, wie wir’s beim Switch zu digitalem Drehen erlebt haben, und das in Potenz. Da geht’s nicht darum, dass man jetzt 1.500 Euro für eine Abtastung spart. Da geht’s darum, dass man bestimmte Filme so macht, so wie Martin Haerlin sie jetzt schon macht, nämlich als One-Man-Show in einer Woche am Rechner. Mit einer guten Idee und einer guten KI und Feierabend. Da brauchste nicht nach Kapstadt weil das Wetter da schön ist im Winter.

MH: Was jetzt easy geht ist: du kannst jetzt einem Weingut einen 30-Sekünder über Trauben im Herbst machen. Das würde dich eine Stunde kosten, und die können das auf ihre Social Media Seite stellen. Man kann also jetzt auch Filme machen für alle die, die sich bisher keine Filme leisten konnten.

SP: Ich glaube diese positive Vision gibst da auch, dass sich da ganz viele neue Arten ergeben werden, mit denen man sein Geld verdienen kann. Es wird Zugang geben für Leute, die vorher keinen Zugang hatten. Die Location Scout geworden sind, obwohl sie vielleicht ein besseres Auge haben als mancher Kameramann. Da werden die Karten neu gemischt. Und es werden Jobs entstehen, die wir uns noch nicht vorstellen können, genau wie sich die Pferdekutscher den Tankwart noch nicht vorstellen konnten.

MH: Ich bin nach wie vor verblüfft wie klein das Interesse aus Deutschland ist.

SP: Ich hab’s am eigenen Leib erfahren. Ich hab THE GERAT CASTPY gesehen und gedacht „Also jetzt schlägst dreizehn“. Das habe ich allen geschickt, die mir einfielen und hab geschrieben: „Ihr MÜSST EUCH DAS ANGUCKEN. So in Stresser-Großbuchstaben. Das wird sowas von unser aller Business umschmeißen…“ Ich habe eine einzige Reaktion bekommen von einem anderen Producer, der schrieb: „Naja, da musste ja noch 150.000 reinstecken damit das wirklich gut aussieht, das wird niemals was werden“.

MH: Das ist so wie man immer dachte dass ein Computer so groß sein muss wie ein Wohnwagen.

SP: Ja, die Beharrungskräfte, ich weiß nicht ob aus Angst oder aus Betriebsblindheit, die sind da doch sehr stark. Wo ist eigentlich die erste AI Filmproduktion? Naja, ich hab sie ja auch noch nicht aufgemacht… Aber DU machst das! Darum Kudos nochmal dafür, das macht viel Spaß, ich bleib da dran. Danke nochmal für das Gespräch!

MH: Danke Dir!

Now that escalated quickly…

Ich habe grade das Potenzial von AI unterstützter Kreation am eigenen Leibe erfahren, und ich bin noch immer in shock: In einem Whatsapp-Gruppenchat hat eine Freundin den denkwürdigen Satz gedroppt: „Mein Mann ist auf Sylt, und ich bin über’n Dispo“. Fragt nicht, aber genau so stand es geschrieben. Wichtig daran ist eigentlich nur, dass das irgendein Satz in irgendeiner Whatsapp-Gruppe war. Ich fand das so hitverdächtig, daß ich SUNO damit gefüttert habe; und keine 10 Minuten später konnte ich bereits diesen potenziellen Chartstürmer in dieselbe WhatsApp Gruppe posten.

So ein Refrain hätte in den 90ern für einen top 40 Hit in Deutschland gereicht, und im Radio wäre es zwischen dem ganzen anderen Chart-Trash nicht groß aufgefallen. Stefan Raab hat wie einige andere eine ganze Musikindustrie-Karriere auf dieser Sorte Zeugs aufgebaut. Behaupte ich jetzt einfach mal, entrüstete Widersprüche bitte in die Kommentarspalten.

Aber damit war das noch nicht zu Ende. Die Freundin hat dann gleich noch einen Strophen-Text in der Gruppe gedroppt, den ich fix an eine andere Version desselben Refrains drangenagelt habe – et voilà! (Und ja: ihr müßt die Links klicken, weil ich zu geizig bin, für Audio- und Videointegration zu bezahlen.)

Das kann man ohne jede enthusiastische Übertreibung nur Kreation auf Speed nennen, und zwar aus mindestens vier Gründen:

1 SUPERPOWERS FÜR KAUM-WAS-KÖNNER: Das hat mir ermöglicht, Co-Creator von dieser Musik zu werden, jemandem, der etwas Vergleichbares mit klassischen Tools niemals hätte aufstellen können. Ich hatte mit 7 Jahren mal Blockflötenunterricht, das ist mein level of expertise.

2 VON MICROINSPIRATION ZUM PRODUKT IN 5 MINUTEN: Jede noch so abwegige Schnapsidee läßt sich mit Minimalaufwand auf ihre Produkttauglichkeit hin abklopfen. Hätte ich mit dieser „Idee“ ein Team von Musik-Profis beauftragt, ein Studio gebucht etc.? Nö. 

3 TURBOSPEED: Der Zeitaufwand dafür war geschätzt der hundertste Teil von dem, was jemand mit einem Profi-Ansatz dafür an Zeit aufgewendet hätte. Von Equipment, Vorbildung, Mitwirkenden etc. gar nicht erst zu reden. 

4 TONNENWEISE OUTPUT: Der Output von SUNO war jede Menge repetitives Zeug, das nicht gut genug war, nicht catchy genug, unorganisch etc, aber eben auch innerhalb von 30 Minuten diese beiden grundsoliden Nummern.

Jetzt kann man das Ergebnis schrottig finden, über den Humor nicht lachen und tausend andere Details bekritteln (Blockflötenunterricht mit 7, sag ich ja!). Man kann aber nicht darüber hinwegsehen, daß dieser mühelose Workflow und dessen beschriebene Effekte mehr als erstaunlich ist. Und das gilt eben nicht nur für generative Musik-AI.

Im Ernst: Ich kann jedem irgendwie in der Kreativindustrie tätigen Menschen nur dringend dazu raten, in dem Genre seiner/ihrer Wahl (Musik/Bilder/Bewegtbild) die dort verfügbaren generativen AI Tools mal durchzuspielen statt immer nur die Ergebnisse anzuschauen und „MEINUNGEN“ zu haben, und sich mal diesem atemberaubenden Beschleunigungseffekt auszusetzen. Husch-husch!

P.S.: MusicRadar hat grade die Info veröffentlicht, daß 2024 täglich mehr neue Musik released wird als im ganzen Jahr 1989. Und das sind noch die Auswirkungen der Digitalisierung der Produktions- und Distributionsprozesse seit den 90ern. Das ist noch gar nicht der AI Effekt: der kommt noch. 

P.P.S.: SUNO und UDIO werden zu Recht von der kompletten US Musikindustrie verklagt, weil sie ganz offensichtlich ihre Software an rechtebehafteter Musik trainiert haben, wie immer in diesen Fällen natürlich ohne zu fragen oder gar – wo kämen wir denn da hin! – zu bezahlen, weil „fair use“. Das stinkt natürlich zum Himmel.

P.P.P.S.: Wegen Verwerfungen im Raum/Zeitkontinuum (Okay: ich hab’s irgendwie im WORDPRESS Editor versemmelt…) lag dieser Beitrag ein Jahr lang unveröffentlicht rum, was bedeutet, dass das SUNO Modell hinter der Mukke schon 12 Monate alt ist. Urururalt. Habe grade in der aktuellen SUNO Version 4.5 ein cover anfertigen lassen innerhalb von ca. 40 Sekunden, das wollte ich Euch nicht vorenthalten: https://suno.com/s/3pc81651LmF6mdRt

Implementation Gap

Ich sehe bei generativer AI einen massiven „Implementation Gap“.

Implementation Gap? Das erste Spülklosett wurde 1556 erfunden. Trotzdem gibt es im Jahr 2025 noch rund 550 Millionen Menschen allein in indien, die keins haben. Der Implementation Gap zwischen Erfindung und flächendeckender Verbreitung beträgt für Indien also fast 500 Jahre, and counting.

Dasselbe gilt für AI im Werbefilm. Der sehr schlaue Ethan Mollick, seines Zeichens Professor für Management in der Ivy-League-Schmiede Wharton, hat mal gesagt, selbst wenn in Sachen AI jegliche Innovation JETZT stoppen würde, würden Firmen – und das verallgemeinere ich mal auf uns als Ökosystem – mindestens 10 Jahre brauchen, um all das zu implementieren, was jetzt schon möglich ist.

Der Implementation Gap ist also mmerhin um den Faktor 50 kleiner als bei Spülklosetts, aber er ist ganz offensichtlich da.

Könnte man sich drum kümmern, wenn man Producer wäre, beispielsweise. 

Natürlich wäre es auch eine interessante Frage, ob der Fortschritt beim Filmemachen mit generativer AI tatsächlich so eindeutig ist wie der, wenn man nicht mehr hinter die eigene Hütte defäkieren muss, weil man jetzt ein Klo hat. Aber ich glaube die Frage haben leider bereits andere für uns entschieden, Freunde. Also los, chop chop!

Spare me yourselfie!

Warum sind diese AI-generierten Selfie/Vlog-Videos eigentlich so eine Sensation und Provokation? Der Humor, geschenkt. Daran kann’s nicht liegen. Steile These: Die sind deshalb so ein Stachel in meinem Fleisch, weil sie hinter dem vordergründigen Humor sich lustig machen über die Welten, die sie zusammenrühren und zugleich zu Grabe tragen, nämlich:

  1. Das Filmemachen mit fettem Production Value. Schaut Euch mal das Odysseus-Vlog an. Shots wie diese (vom bescheuerten ausgestreckten Selfie-Arm abgesehen) haben Wolfgang Petersen in Troja hunderttausende von Dollars beim Dreh und in der Post gekostet, die werden hier einfach mit VEO3 hintereinander weggeballert als wär nix.
  2. Die vermeintliche Authentizität des Vloggens. Der (müde) Witz ist ja nicht, dass Odysseus kein Iphone hatte. Der Witz ist, das Odysseus kein Iphone mehr BRAUCHT um Vlogs zu machen, weil es jetzt AI gibt. „There’s a joke here somewhere / and it’s on me“, wie Dr. Springsteen zu sagen pflegt.

Insofern ist das jenseits des Bru-Ha-Ha Effektes eine triumphale Geste, ein imperialer, raumgreifender Anspruch, den man aus Perspektive der generativen AI auch so formulieren könnte: Vielen Dank für all die Trainingsdaten aus hunderten von Sandalenfilmen und Milliarden an Selfies und Vlogs, ab jetzt machen wir das aber ohne Euch.

Aus meiner Perspektive, der ich eher bei den Sandalenfilmen als bei den Selfies zuhause bin, ist es ein kleiner, schadenfoher Trost, dass das unsägliche Social Media Gewackel, das uns so oft schon das Wasser abzugraben gedroht hat, jetzt selber zum Opfer des nächsten Innovationsschubs wird. Aber eben leider nur ein schwacher Trost.

Oh, und bitte keine weiteren AI Vlogs verlinken, I’ve seen it all, danke, reicht.

Spielräume

Klaro, alle arbeiten grade dran, AI in ihre Workflows zu integrieren (oder sie bereiten sich stattdessen auf eine hoffentlich komfortable Frührente vor, auch ein legitimes Ziel, aber dazwischen gibt es nicht so viele Optionen). Der simpelste Ansatz dabei ist ja, einfach überall da AI zu benutzen, wo sie schon gut genug ist, das zu ersetzen, was wir sonst so tun. Das ist quasi ein Reflex in einer Werbefilmproduktion: „Ah, da gibts was Neues, das geht besser, günstiger, einfacher, dann machen wir das jetzt so“ – wie in Boogie Nights, als Porno eben auf einmal auf Video gedreht wurde, und olle Burt Reynolds seufzend & schulterzuckend auf VHS umstellt, ist halt so.

Dass das aber mehr sein wird als der Umstieg von analog auf digital habe ich schon x-fach betont. Hier kommt eine sehr luzide Warnung von Regisseur Jonathan Vardi, die wir alle im Auge behalten sollten: „Wenn wir am alten System von Briefings, Decks, Storyboards und endlosen Freigaben festhalten und das lediglich mit KI-Unterstützung tun, steuern wir geradewegs auf die seelenloseste und mechanischste Version unseres Handwerks zu.“

Wenn ihr schonmal einmal eine Full-CG-Produktion gefahren habt, kennt ihr die Blaupause für das, was uns bevorstehen könnte. Say Goodbye zu dem Spaß und den Möglichkeitsräumen, die ein Live-Dreh eröffnet. Und ich spreche nicht nur von dem zynischen Approach „War zwar ein langweiliges Script, aber dafür haben wir in Brasilien gedreht“. Ich spreche davon, mit vielen multitalentierten Menschen gemeinsam etwas zu entwickeln und zu optimieren und dabei auch dem Zufall Raum zu geben, Momente zu erwischen, die man selbst nie so hätte kreieren können – ihr wisst, wovon ich spreche.

Wenn all das durch KI ersetzt wird, was gewinnen wir stattdessen? Der shitty part einer zukünftigen AI-gestützten Filmproduktion wird nicht der AI part werden, sondern das, was aus der alten Welt übrigbleibt, und der auf einmal DAS KOMPLETTE PROJEKT VERSCHLUCKEN WIRD: starre Briefings, Pixelschubserei, endlose Feedbackschleifen.

Wir müssen es beim Namen nennen: es geht um die Dynamik von Gestaltungsfreiheit und Macht, die hier ganz neu verhandelt werden wird. Aktuell sieht es doch so aus: Kunde und Agentur kommen mit einem Skript und dem Budget zu uns – die Macht liegt zu 100 % auf ihrer Seite (ja, denkt meinetwegen gerne auch an STAR WARS, wenn ihr „DIE MACHT“ lest). Kluge Agenturen bauen hier bereits genügend Interpretationsspielräume in ihre Skripte ein. Andere hingegen haben schon alles an Kunden, Tester und Marketingmechanismen delegiert – deren Skripte könnte man tatsächlich direkt in die KI werfen und fertigstellen lassen, da ohnehin schon alles bis ins kleinste Detail vorgegeben ist.

Doch sobald der Auftrag vergeben ist, verschiebt sich das Gefüge („Ich fühle eine Erschütterung der Macht“): Natürlich hat die Agentur das letzte kreative Wort und alles muss im Rahmen des Budgets bleiben. Aber ab diesem Zeitpunkt liegt die MACHT, die Entscheidungsgewalt über das Ergebnis bei Regie & Produktion. Und das gilt umso mehr, sobald der Dreh beginnt. Und ist nicht gerade das der reizvolle Teil unseres Jobs? Gute Agenturen und Kunden verstehen diese Dynamik und lassen sie zu, denn sonst könnten sie es ja auch selbst machen (aber das Ergebnis würde wahrscheinlich auch so aussehen…).

Die eigentliche Gefahr einer KI-gestützten Filmzukunft liegt also nicht etwa darin, dass Kunden ihre Filme selbst erstellen. Sondern darin, dass dieser Moment der Übergabe nicht mehr stattfindet, dass man uns nicht mehr gestalten lässt, sondern dass alles in einem Strudel aus Feedbackschleifen, Abnahmen, Pixelschubserei und Framefucking untergeht.

Anstatt also die Workflows einer Full-CG-Produktion eins zu eins zu kopieren, sollten wir uns bei der Integration von KI in die Werbefilmproduktion unter anderem fragen:

  • Was war bisher unmöglich, und was machen wir mit unseren ganz speziellen, filmemacherischen Erfahrungen jetzt dank AI möglich?
  • Wie erhalten wir uns dabei die kreativen Freiräume, die uns in unserem aktuellen Filmschaffen überhaupt ermöglichen, etwas Großartiges abzuliefern?
  • Wie überzeugen wir Kunden und Agenturen davon, dass genau das notwendig ist, um gute Filme zu machen?

Sonst gewinnt die dunkle Seite der Macht, und wir produzieren am Ende nur noch Malen nach Zahlen. Oder vielmehr: sonst dürfen wir die KI beim Malen nach Zahlen beaufsichtigen. Das wäre der Worst Case und glaubt mir, das gilt nicht nur für uns Filmschaffende, sondern auch für Kunden und Agenturen. Wir müssen es ihnen nur so sagen, dass sie es uns auch glauben. Schickt gerne einen Link zu diesem Post weiter – you are welcome!

SHRINKED

Grade die tolle Serie „Shrinked“ auf Apple TV geschaut. Habe mich schon öfter gefragt, warum psychiatrische Setups so gerne auf dem Bildschirm landen, und hier ist mein heimlicher Verdacht: Weil alle writer einen Dachschaden  Weil das billig zu produzieren ist! Talking Heads. Menschen in  einem Raum, die reden und reden, Schuß – Gegenschuß, zack, schon wieder 5 Minuten Screentime gefüllt, ohne daß eine Armee über die Alpen marschieren oder Aliens aus einem senkrecht über dem Ozean schwebenden Raumschiff aussteigen müssen. Was das spart!

Im Ernst: Warum ist FRIENDS in einem einzigen Set entstanden? (Okay, drei: zwei Wohnungen, ein Cafe?) Weil das BILLIG ist, Punkt. 

Aber dieser ökonomische Druck, möglichst viel & oft quasselnde Menschen in einem Setting abzufeiern, verschwindet mit dem Beginn von generativem AI Filmmaking, weil es der AI tendenziell egal ist, ob sie einen Planeten explodieren oder einen Menschen sprechen läßt. Um genau zu sein: im Moment sehen explodierende Planeten deutlich besser aus als sprechende Menschen… Das heisst aber, da verschieben sich auf Dauer ganz viele gelernte und praktizierte Prioritäten und Gewichtungen bezüglich PRODUCTION VALUE. Historische Stoffe? Viel zu viel Art Department Aufwand. Massenszenen? Arghh. Dreibeinige Monster? Lass mal lieber.

Ich kann mich noch gut daran erinnern, wie mir ein befreundeter Writer mal ganz stolz sein Serienfinale zeigte, in dem er zum ersten Mal einen Wohnungsbrand reinschreiben hatte dürfen. Feuer! In einer Wohnung! Irre. Da würde der AI Filmer sagen: „Wohnungsbrand? Warum nicht gleich die ganze Stadt abfackeln, be my guest!“

Mal gucken, ob damit auch der Hang zum Psychiatrischen in den Drehbüchern weniger wird – wäre andererseits natürlich tragisch, wenn Tony Soprano nie beim Shrink gelandet wäre. 

Der „Ted Lasso – Effekt“

Warum eigentlich sind 95% der AI Bewegtbildsachen in meinem Feed noch immer Schrott? Genauer: Bei Stills nähern wir uns Fotorealismus. Bei einzelnen Bewegtbild Shots wird’s schon ganz gut bis gut genug; nur ein ganzer (Werbe-)Film, und wenn nur 60 Sekunden, war bisher nicht in Sicht, und alle Versuche darüber waren inakzeptabel, die CocaCola Weihnachtsfilme sehr explizit eingeschlossen. Aber warum? Ich sage: Weil das zumeist von irgendwelchen Menschen kommt, die mit den Tools rumfummeln, aber nicht von Filmprofis. 

Das hat sich grade geändert. Sebastian Strasser hat einen Werbespot für Vodafone gemacht, der genau das will und zum großen Teil auch liefert, was zuvor schon die sagenwirmal 50 Vignettenfilme für Vodafone auch gemacht haben. 

Ich weiß, daß ihr jetzt meckern wollt. Ich habe 2 Millionen Beschwerden gelesen darüber wie schlecht der Film sei; die beziehen sich in Wahrheit sämtlich auf das Script. Whatever, sag ich da, ich bin kein Möchtegern-CD; ich bin Producer, ich finde also alle Skripte fantastisch. Agesehen von allem Detailgequengelkann ich als Producer zum ersten Mal Herrn Strassers Fazit teilen: „AI is here“!

Wie aber hat er es bloß geschafft, einen einigermaßen annehmbaren Film herzustellen? Ich möchte das den „TED LASSO – EFFEKT“ nennen: Jemand, der in seinem Metier richtig gut ist, überträgt sein Wissen, seine Methoden, seinen Geschmack, seine Workflows auf ein neues Metier. Wie Ted Lasso, der sich nur mit American Football auskennt, aus einem Haufen englischer Rumpelkicker eine gute Mannschaft macht, so hat Sebastian Strasser aus einem Haufen disparater, AI erzeugter Shots einen Film gemacht. Ted Lasso hat noch nicht die Meisterschaft gewonnen (ich bin noch in Staffel 2, kommt vielleicht noch), aber er ist auf einem vielversprechenden Weg. 

Ted Lasso hat keine Ahnung von Fußball, so wenig wie Seb Strasso von AI. Für viele Nerds vielleicht überraschend: Muß er auch nicht. Warum? Weil er seine Heads of Department hat, die sich auskennen, seine Subcoaches, und die Truppe von Fußballern, die wissen, wie man einen Ball kickt. Seb Strasso hat einen Creative Director, einen VFX Supervisor, eine Producerin, einen Editor, einen Grader, und jede Menge AI Artists und VFX Artists zum Reparieren von dem, was die AI versemmelt oder noch nicht hinbekommt. Er muß sich dafür nicht mit AI auskennen, das kann sogar hinderlich sein. Er muß vielmehr eine Vision für den Film haben. Sonst würden alle ohne einen gescheiten Coach im Nebel stochern und einen Ansammlung disparater Shots hintereinanderballern, aber keinen Film entstehen lassen.

Und umgekehrt: Regisseur und Midjourney und Runway werden auch keinen Film auf die Beine stellen; dafür braucht das AI Handling einfach viel zu viel Spezialwissen, was mit Regie Führen zero zu tun hat. Das übersieht man nur gern, weil die Tools so tun, als wenn sie nur ein bisschen Textprompting bräuchten. Ist natürlich Quatsch. Eine Slotmachine macht keinen Film, auch nicht wenn einer am Hebel zieht, der sich stolz Slot Machine Operator nennt.

Sebastian Strasser selbst hat auf dem Ciclope Festival davon berichtet, wie der Film entstanden ist, und das Interessanteste für mich war dabei, wie sehr er „einfach“ wie ein Regisseur da rangegangen ist, und eben nicht wie ein AI Nerd:

Er hat ein Storyboard gemacht; er hat eine riesige Cast Base sich aufgebaut an AI Darstellern (und war begeistert davon, daß er jetzt endlich seine DarstellerInnen zu 100% so bekommt, wie er sie möchte); er hat Räume und Welten und Hintergründe bauen lassen und durchgetauscht; er hat Shots generieren lassen ohne Ende, garantiert viiiiiel zu viele aus Producersicht; er hat seine AI Artists mit Filmbeispielen getriezt („Nein, Nein, der Raum muß viel mehr aussehen wie bei Cassavetes!“) und sich gewundert, daß die gar nicht wussten, wovon er redet; er hat alles in VFX basteln lassen was die AI versemmelt hat; er hat eine Riesentruppe an Spezialisten zusammengetrommelt, er hat nochmal auf Film ausbelichtet weil das irgendwie geiler aussieht (Der Look, das Grain, ihr wißt schon), selbst das persönliche Drama durfte nicht fehlen: Zwischendurch mußte der Director, so berichtet er, ins Krankenhaus gefahren werden, weil er nur noch Rechtecke gesehen habe. 

Wie klingt das für Euch? Was soll ich sagen: eigentlich alles wie immer, ob mit oder ohne AI – und mir scheint, daß erst und vor allem dieses „alles wie immer“ dazu geführt hat, daß dieser AI-Film am Ende auch ein Film geworden ist. More to come, nehme ich mal an.

Podcast Folge 7! *und 5&6 auch!

„Wann endlich kommt denn die neue Podcast-Episode raus?“ habt ihr Euch sicher schon lange gefragt. Et Voilà:

Episode 7 – Tierärzte im Weltall, Germanische Seherinnen, Tocotronic und AI-Standup Comedy: Die kunterbunte Zukunft des Filmemachens!

Nachdem Daniel, Ilka und Icke die letzten beiden Episoden uns unter die Algorithmus-Beobachter und die Psychologen begeben hatten, gibt es diesmal wieder einen Filmemacher als Gast, der… aber hört selbst!