Now that escalated quickly…

Ich habe grade das Potenzial von AI unterstützter Kreation am eigenen Leibe erfahren, und ich bin noch immer in shock: In einem Whatsapp-Gruppenchat hat eine Freundin den denkwürdigen Satz gedroppt: „Mein Mann ist auf Sylt, und ich bin über’n Dispo“. Fragt nicht, aber genau so stand es geschrieben. Wichtig daran ist eigentlich nur, dass das irgendein Satz in irgendeiner Whatsapp-Gruppe war. Ich fand das so hitverdächtig, daß ich SUNO damit gefüttert habe; und keine 10 Minuten später konnte ich bereits diesen potenziellen Chartstürmer in dieselbe WhatsApp Gruppe posten.

So ein Refrain hätte in den 90ern für einen top 40 Hit in Deutschland gereicht, und im Radio wäre es zwischen dem ganzen anderen Chart-Trash nicht groß aufgefallen. Stefan Raab hat wie einige andere eine ganze Musikindustrie-Karriere auf dieser Sorte Zeugs aufgebaut. Behaupte ich jetzt einfach mal, entrüstete Widersprüche bitte in die Kommentarspalten.

Aber damit war das noch nicht zu Ende. Die Freundin hat dann gleich noch einen Strophen-Text in der Gruppe gedroppt, den ich fix an eine andere Version desselben Refrains drangenagelt habe – et voilà! (Und ja: ihr müßt die Links klicken, weil ich zu geizig bin, für Audio- und Videointegration zu bezahlen.)

Das kann man ohne jede enthusiastische Übertreibung nur Kreation auf Speed nennen, und zwar aus mindestens vier Gründen:

1 SUPERPOWERS FÜR KAUM-WAS-KÖNNER: Das hat mir ermöglicht, Co-Creator von dieser Musik zu werden, jemandem, der etwas Vergleichbares mit klassischen Tools niemals hätte aufstellen können. Ich hatte mit 7 Jahren mal Blockflötenunterricht, das ist mein level of expertise.

2 VON MICROINSPIRATION ZUM PRODUKT IN 5 MINUTEN: Jede noch so abwegige Schnapsidee läßt sich mit Minimalaufwand auf ihre Produkttauglichkeit hin abklopfen. Hätte ich mit dieser „Idee“ ein Team von Musik-Profis beauftragt, ein Studio gebucht etc.? Nö. 

3 TURBOSPEED: Der Zeitaufwand dafür war geschätzt der hundertste Teil von dem, was jemand mit einem Profi-Ansatz dafür an Zeit aufgewendet hätte. Von Equipment, Vorbildung, Mitwirkenden etc. gar nicht erst zu reden. 

4 TONNENWEISE OUTPUT: Der Output von SUNO war jede Menge repetitives Zeug, das nicht gut genug war, nicht catchy genug, unorganisch etc, aber eben auch innerhalb von 30 Minuten diese beiden grundsoliden Nummern.

Jetzt kann man das Ergebnis schrottig finden, über den Humor nicht lachen und tausend andere Details bekritteln (Blockflötenunterricht mit 7, sag ich ja!). Man kann aber nicht darüber hinwegsehen, daß dieser mühelose Workflow und dessen beschriebene Effekte mehr als erstaunlich ist. Und das gilt eben nicht nur für generative Musik-AI.

Im Ernst: Ich kann jedem irgendwie in der Kreativindustrie tätigen Menschen nur dringend dazu raten, in dem Genre seiner/ihrer Wahl (Musik/Bilder/Bewegtbild) die dort verfügbaren generativen AI Tools mal durchzuspielen statt immer nur die Ergebnisse anzuschauen und „MEINUNGEN“ zu haben, und sich mal diesem atemberaubenden Beschleunigungseffekt auszusetzen. Husch-husch!

P.S.: MusicRadar hat grade die Info veröffentlicht, daß 2024 täglich mehr neue Musik released wird als im ganzen Jahr 1989. Und das sind noch die Auswirkungen der Digitalisierung der Produktions- und Distributionsprozesse seit den 90ern. Das ist noch gar nicht der AI Effekt: der kommt noch. 

P.P.S.: SUNO und UDIO werden zu Recht von der kompletten US Musikindustrie verklagt, weil sie ganz offensichtlich ihre Software an rechtebehafteter Musik trainiert haben, wie immer in diesen Fällen natürlich ohne zu fragen oder gar – wo kämen wir denn da hin! – zu bezahlen, weil „fair use“. Das stinkt natürlich zum Himmel.

P.P.P.S.: Wegen Verwerfungen im Raum/Zeitkontinuum (Okay: ich hab’s irgendwie im WORDPRESS Editor versemmelt…) lag dieser Beitrag ein Jahr lang unveröffentlicht rum, was bedeutet, dass das SUNO Modell hinter der Mukke schon 12 Monate alt ist. Urururalt. Habe grade in der aktuellen SUNO Version 4.5 ein cover anfertigen lassen innerhalb von ca. 40 Sekunden, das wollte ich Euch nicht vorenthalten: https://suno.com/s/3pc81651LmF6mdRt

Hervorgehoben

Die nächste Trainingsrunde: Jetzt müssen die Profis ran

Letztes Jahr habe ich mal eine obskure Firma ausgecheckt, die offensichtlich im großen Stil das Training von LLMs an jeden deutschen Muttersprachler ausgelagert hat, der irgendwie einen Internetzugang besaß (weitere Qualifikationen waren da nicht erforderlich). Das war so ein bisschen wie die „In Welchen Bildern Siehst Du Ein Fahrrad“ Puzzle, aber mit Text. Und überraschenderweise für echtes Geld. Komplett wirr und so chaotisch aufgesetzt, dass man sich nicht vorstellen konnte, wie aus so einem verkorksten Prozess irgendeine valide Information für irgendwas sich extrahieren lassen sollte, aber auch slightly unterhaltsam. Ich habe das nach zwei Stunden milden Interesses schnell meiner Tochter umgehängt, die damit ihr Taschengeld aufgebessert hat. Wenn ChatGPT also für euch manchmal wie ein 13-jähriges, sehr meinungsstarkes und dabei oft schlechtgelauntes Teenagermädchen klingt: Sorry, das war ich. 

Aber jetzt wird’s ernst! Die LLMs sind ja inzwischen offenbar mit allem trainiert, was nicht bei drei auf den Bäumen war – Internet ist alle. Benedict Evans hat grade diesen Bloomberg-Artikel verlinkt, der davon berichtet, dass OpenAI diversen Ex-Bankern 150 Dollar die Stunde zahlt dafür, dass sie OpenAI’s LLM beibringen, was da draußen im Netz nicht sowieso schon rumschwirrt. Aber Banker scheinen nicht die einzigen zu sein, die auf bisher unzugänglichen Informationen = Trainingsdaten hocken.

Wir hatten im Podcast ja mal den sehr schlauen Prof Björn Stockleben von der Filmuni Babelsberg zu Gast, der damals sehr zu meiner Beruhigung darauf hinwies, dass zwar die Regisseure, Editoren und DPs ein echtes Problem hätten, weil ihr Zeug tonnenweise und allgemein zugänglich im Netz zu finden sei und damit auch als Trainingsdaten für die gierigen Techkonzern-AIs zur Verfügung stünde; dass aber wir Producer mit unseren spezifischen Daten traditionell deutlich restriktiver umgingen – niemand kann sich bisher auf YouTube anschauen, wie man denn eine belastbare Kalkulation für drei Drehtage in Kapstadt für einen Autofilm aufsetzt. 

Das scheint inzwischen auch OpenAI oder irgendwelchen anderen Techkonzernen aufgefallen zu sein. Mein LinkedIn Channel wird seit Kurzem geflutet von „Jobangeboten“ einer Company namens MERCOR, die für AI Hersteller nach Experten aus unserer Domain sucht: Executive Producer, Film Production Specialist, Film Producer, Series Producer, Independent Filmmaker, Senior Producer, Line Producer, Producer, Screenwriter, Editor, Post Production Supervisor etc.* Worum geht’s? Darum, einer AI beizubringen, wie die genannten Jobs funktionieren. Da versucht also gerade ein AI Entwickler, im Bereich Film alles Wissen sich einzuverleiben, was er bisher aus YouTube, Netflix etc. noch nicht klauen extrahieren konnte.

Damit sind wir wieder am Anfang des Fear Cycles in Sachen AI: „How would you turn an AI model into an expert in your domain?“ ist der Titel des angedrohten AI Job Interviews. Oder anders formuliert: „Verrate uns, wie wir dich überflüssig machen können, im Internet haben wir leider zu wenig dazu gefunden“. Klingt irgendwie nach Verrat und sich-ins-eigene-Fleisch-schneiden, aber ich habe da mal ein Fax hingeschickt. Ich habe da ja schließlich einige goldene Weisheiten aus einigen Jahrzehnten gut abgehangenen Producerwissens zu bieten wie „Bleib Up Top Date damit, welches Restaurant deine Kunden wohl am Besten finden werden“ und „Immer 3% billiger anbieten als die Mitbewerber“. Mal sehen, ob sie rausrücken damit, in wessen Auftrag sie eigentlich unterwegs sind. Keeping you posted!

*Meine Lieblings-AI Gemini hat mir inzwischen verraten, daß die Company Mercor selbst wohl legit ist (mit 10 Milliarden USD bewertet; die Üblichen Verdächtigen Investoren wie Peter Thiel etc.). Aber jetzt kommt der Twist: diverse Applikanten haben bereits vermutet, daß die Ausschreibungen keine echten Jobs bewerben, sondern daß sie lediglich Mercors Interview-AI optimieren sollen. Klingt krank, aber nicht abwegig. 

**Ein weiterer Bloomberg-Artikel zum selben Thema: „Ex McKinsey Consultants are training models to replace them“

Implementation Gap

Ich sehe bei generativer AI einen massiven „Implementation Gap“.

Implementation Gap? Das erste Spülklosett wurde 1556 erfunden. Trotzdem gibt es im Jahr 2025 noch rund 550 Millionen Menschen allein in indien, die keins haben. Der Implementation Gap zwischen Erfindung und flächendeckender Verbreitung beträgt für Indien also fast 500 Jahre, and counting.

Dasselbe gilt für AI im Werbefilm. Der sehr schlaue Ethan Mollick, seines Zeichens Professor für Management in der Ivy-League-Schmiede Wharton, hat mal gesagt, selbst wenn in Sachen AI jegliche Innovation JETZT stoppen würde, würden Firmen – und das verallgemeinere ich mal auf uns als Ökosystem – mindestens 10 Jahre brauchen, um all das zu implementieren, was jetzt schon möglich ist.

Der Implementation Gap ist also mmerhin um den Faktor 50 kleiner als bei Spülklosetts, aber er ist ganz offensichtlich da.

Könnte man sich drum kümmern, wenn man Producer wäre, beispielsweise. 

Natürlich wäre es auch eine interessante Frage, ob der Fortschritt beim Filmemachen mit generativer AI tatsächlich so eindeutig ist wie der, wenn man nicht mehr hinter die eigene Hütte defäkieren muss, weil man jetzt ein Klo hat. Aber ich glaube die Frage haben leider bereits andere für uns entschieden, Freunde. Also los, chop chop!

Spare me yourselfie!

Warum sind diese AI-generierten Selfie/Vlog-Videos eigentlich so eine Sensation und Provokation? Der Humor, geschenkt. Daran kann’s nicht liegen. Steile These: Die sind deshalb so ein Stachel in meinem Fleisch, weil sie hinter dem vordergründigen Humor sich lustig machen über die Welten, die sie zusammenrühren und zugleich zu Grabe tragen, nämlich:

  1. Das Filmemachen mit fettem Production Value. Schaut Euch mal das Odysseus-Vlog an. Shots wie diese (vom bescheuerten ausgestreckten Selfie-Arm abgesehen) haben Wolfgang Petersen in Troja hunderttausende von Dollars beim Dreh und in der Post gekostet, die werden hier einfach mit VEO3 hintereinander weggeballert als wär nix.
  2. Die vermeintliche Authentizität des Vloggens. Der (müde) Witz ist ja nicht, dass Odysseus kein Iphone hatte. Der Witz ist, das Odysseus kein Iphone mehr BRAUCHT um Vlogs zu machen, weil es jetzt AI gibt. „There’s a joke here somewhere / and it’s on me“, wie Dr. Springsteen zu sagen pflegt.

Insofern ist das jenseits des Bru-Ha-Ha Effektes eine triumphale Geste, ein imperialer, raumgreifender Anspruch, den man aus Perspektive der generativen AI auch so formulieren könnte: Vielen Dank für all die Trainingsdaten aus hunderten von Sandalenfilmen und Milliarden an Selfies und Vlogs, ab jetzt machen wir das aber ohne Euch.

Aus meiner Perspektive, der ich eher bei den Sandalenfilmen als bei den Selfies zuhause bin, ist es ein kleiner, schadenfoher Trost, dass das unsägliche Social Media Gewackel, das uns so oft schon das Wasser abzugraben gedroht hat, jetzt selber zum Opfer des nächsten Innovationsschubs wird. Aber eben leider nur ein schwacher Trost.

Oh, und bitte keine weiteren AI Vlogs verlinken, I’ve seen it all, danke, reicht.

Spielräume

Klaro, alle arbeiten grade dran, AI in ihre Workflows zu integrieren (oder sie bereiten sich stattdessen auf eine hoffentlich komfortable Frührente vor, auch ein legitimes Ziel, aber dazwischen gibt es nicht so viele Optionen). Der simpelste Ansatz dabei ist ja, einfach überall da AI zu benutzen, wo sie schon gut genug ist, das zu ersetzen, was wir sonst so tun. Das ist quasi ein Reflex in einer Werbefilmproduktion: „Ah, da gibts was Neues, das geht besser, günstiger, einfacher, dann machen wir das jetzt so“ – wie in Boogie Nights, als Porno eben auf einmal auf Video gedreht wurde, und olle Burt Reynolds seufzend & schulterzuckend auf VHS umstellt, ist halt so.

Dass das aber mehr sein wird als der Umstieg von analog auf digital habe ich schon x-fach betont. Hier kommt eine sehr luzide Warnung von Regisseur Jonathan Vardi, die wir alle im Auge behalten sollten: „Wenn wir am alten System von Briefings, Decks, Storyboards und endlosen Freigaben festhalten und das lediglich mit KI-Unterstützung tun, steuern wir geradewegs auf die seelenloseste und mechanischste Version unseres Handwerks zu.“

Wenn ihr schonmal einmal eine Full-CG-Produktion gefahren habt, kennt ihr die Blaupause für das, was uns bevorstehen könnte. Say Goodbye zu dem Spaß und den Möglichkeitsräumen, die ein Live-Dreh eröffnet. Und ich spreche nicht nur von dem zynischen Approach „War zwar ein langweiliges Script, aber dafür haben wir in Brasilien gedreht“. Ich spreche davon, mit vielen multitalentierten Menschen gemeinsam etwas zu entwickeln und zu optimieren und dabei auch dem Zufall Raum zu geben, Momente zu erwischen, die man selbst nie so hätte kreieren können – ihr wisst, wovon ich spreche.

Wenn all das durch KI ersetzt wird, was gewinnen wir stattdessen? Der shitty part einer zukünftigen AI-gestützten Filmproduktion wird nicht der AI part werden, sondern das, was aus der alten Welt übrigbleibt, und der auf einmal DAS KOMPLETTE PROJEKT VERSCHLUCKEN WIRD: starre Briefings, Pixelschubserei, endlose Feedbackschleifen.

Wir müssen es beim Namen nennen: es geht um die Dynamik von Gestaltungsfreiheit und Macht, die hier ganz neu verhandelt werden wird. Aktuell sieht es doch so aus: Kunde und Agentur kommen mit einem Skript und dem Budget zu uns – die Macht liegt zu 100 % auf ihrer Seite (ja, denkt meinetwegen gerne auch an STAR WARS, wenn ihr „DIE MACHT“ lest). Kluge Agenturen bauen hier bereits genügend Interpretationsspielräume in ihre Skripte ein. Andere hingegen haben schon alles an Kunden, Tester und Marketingmechanismen delegiert – deren Skripte könnte man tatsächlich direkt in die KI werfen und fertigstellen lassen, da ohnehin schon alles bis ins kleinste Detail vorgegeben ist.

Doch sobald der Auftrag vergeben ist, verschiebt sich das Gefüge („Ich fühle eine Erschütterung der Macht“): Natürlich hat die Agentur das letzte kreative Wort und alles muss im Rahmen des Budgets bleiben. Aber ab diesem Zeitpunkt liegt die MACHT, die Entscheidungsgewalt über das Ergebnis bei Regie & Produktion. Und das gilt umso mehr, sobald der Dreh beginnt. Und ist nicht gerade das der reizvolle Teil unseres Jobs? Gute Agenturen und Kunden verstehen diese Dynamik und lassen sie zu, denn sonst könnten sie es ja auch selbst machen (aber das Ergebnis würde wahrscheinlich auch so aussehen…).

Die eigentliche Gefahr einer KI-gestützten Filmzukunft liegt also nicht etwa darin, dass Kunden ihre Filme selbst erstellen. Sondern darin, dass dieser Moment der Übergabe nicht mehr stattfindet, dass man uns nicht mehr gestalten lässt, sondern dass alles in einem Strudel aus Feedbackschleifen, Abnahmen, Pixelschubserei und Framefucking untergeht.

Anstatt also die Workflows einer Full-CG-Produktion eins zu eins zu kopieren, sollten wir uns bei der Integration von KI in die Werbefilmproduktion unter anderem fragen:

  • Was war bisher unmöglich, und was machen wir mit unseren ganz speziellen, filmemacherischen Erfahrungen jetzt dank AI möglich?
  • Wie erhalten wir uns dabei die kreativen Freiräume, die uns in unserem aktuellen Filmschaffen überhaupt ermöglichen, etwas Großartiges abzuliefern?
  • Wie überzeugen wir Kunden und Agenturen davon, dass genau das notwendig ist, um gute Filme zu machen?

Sonst gewinnt die dunkle Seite der Macht, und wir produzieren am Ende nur noch Malen nach Zahlen. Oder vielmehr: sonst dürfen wir die KI beim Malen nach Zahlen beaufsichtigen. Das wäre der Worst Case und glaubt mir, das gilt nicht nur für uns Filmschaffende, sondern auch für Kunden und Agenturen. Wir müssen es ihnen nur so sagen, dass sie es uns auch glauben. Schickt gerne einen Link zu diesem Post weiter – you are welcome!

SHRINKED

Grade die tolle Serie „Shrinked“ auf Apple TV geschaut. Habe mich schon öfter gefragt, warum psychiatrische Setups so gerne auf dem Bildschirm landen, und hier ist mein heimlicher Verdacht: Weil alle writer einen Dachschaden  Weil das billig zu produzieren ist! Talking Heads. Menschen in  einem Raum, die reden und reden, Schuß – Gegenschuß, zack, schon wieder 5 Minuten Screentime gefüllt, ohne daß eine Armee über die Alpen marschieren oder Aliens aus einem senkrecht über dem Ozean schwebenden Raumschiff aussteigen müssen. Was das spart!

Im Ernst: Warum ist FRIENDS in einem einzigen Set entstanden? (Okay, drei: zwei Wohnungen, ein Cafe?) Weil das BILLIG ist, Punkt. 

Aber dieser ökonomische Druck, möglichst viel & oft quasselnde Menschen in einem Setting abzufeiern, verschwindet mit dem Beginn von generativem AI Filmmaking, weil es der AI tendenziell egal ist, ob sie einen Planeten explodieren oder einen Menschen sprechen läßt. Um genau zu sein: im Moment sehen explodierende Planeten deutlich besser aus als sprechende Menschen… Das heisst aber, da verschieben sich auf Dauer ganz viele gelernte und praktizierte Prioritäten und Gewichtungen bezüglich PRODUCTION VALUE. Historische Stoffe? Viel zu viel Art Department Aufwand. Massenszenen? Arghh. Dreibeinige Monster? Lass mal lieber.

Ich kann mich noch gut daran erinnern, wie mir ein befreundeter Writer mal ganz stolz sein Serienfinale zeigte, in dem er zum ersten Mal einen Wohnungsbrand reinschreiben hatte dürfen. Feuer! In einer Wohnung! Irre. Da würde der AI Filmer sagen: „Wohnungsbrand? Warum nicht gleich die ganze Stadt abfackeln, be my guest!“

Mal gucken, ob damit auch der Hang zum Psychiatrischen in den Drehbüchern weniger wird – wäre andererseits natürlich tragisch, wenn Tony Soprano nie beim Shrink gelandet wäre. 

Hervorgehoben

Agentic Directing

Agentic AI soll ja das ganz große Ding für 2025 sein, aber ist da was in Sicht in Sachen Filmemachen?

Keine Agenten in Sicht, sag ich mal: Momentan sind AI Workflows verflucht komplexe Setups, bei denen schon jetzt diverse AIs zusammegestöpselt werden: mit Gemini einen Prompt schreiben, der mir in Midjourney das bestmögliche Bild macht; dann dieses Bild in die nächste AI füttern, sagen wir KLING, um eine Bewegtbildsequenz daraus zu erstellen; dann mit Elevenlabs vertonen etc.

Das kannst du dir per Hand puzzeln, das ist alle paar Tage neu; du kannst in Foren & mit Freunden heisse Tips austauschen was wofür am besten ist. Du kannst auch schon diverse Produkte nutzen, die bei der Integration der Arbeitsschritte helfen, Canvasses wie Flora oder Freepik, die viele AIs in einer Oberfläche zusammenführen; Suites wie LTX, die in einem integrierten System alle Arbeitsschritte des Filmschaffens zusammenführen – Storyboarding, Shoterstellung, Kameradirections, Grading, Edit etc…

Der neueste Shit:  ChatGPT und Gemini sind nicht mehr promptbasiert, sondern „conversational“ und integrieren Workflows in den generativen Prozeß wie „mach mal das Shirt anders“: sie sind also auf dem Weg von der Slot Machine – immer alles neu – hin zu einem non-destructive workflow, bei dem ich Details verändern kann anstatt immer wieder von Null zu starten.

ABER. Agentic? Was noch immer so ist, egal in welchem Ökosystem du da unterwegs bist: Du brauchst selber eine Vision, eine Idee. Und du mußt sie auch umsetzen, du mußt also Director sein, und deinen AIs directions geben. Aber wer ist schon ein Director? Moment, was war nochmal die große Prediction für 2025? Ach ja, das Jahr von Agentic AI.

Aktuell ist ja das Versprechen von AGENTIC AI eher, daß demnächst ein AI AGENT autonom meinen nächsten Trip nach Paris für mich organisiert, und dabei meine diätetischen & hoteltechnischen Vorlieben, Timingvorgaben und Airlinepräferenzen berücksichtigt, aber warum nicht einen Schritt weitergehen – was ist eigentlich mit AGENTIC DIRECTION?

Warum eigentlich kann ich nicht einen Regie-AI-Agenten trainieren? Einfach zwei Jahre lang alle Regie-Ratgeber, Filmhandbücher, Oscar-Filme, Making Ofs, Proseminar-Transkripte der HFF und Restaurant-Präferenzen für Barcelona füttern und LOS GEHT’S:

Liebe Regie-AI, hier ist meine Filmidee: „Aliens wollen Justin Bieber entführen, um auf ihrem Heimatplaneten eine Justin Bieber Mania auszulösen, entführen aber aus Versehen nur sein Karaoke-Lookalike, und dann bricht die Hölle los auf Bragulon Kappa“

So, kann ich das bitte einmal als Wes Anderson Film sehen? Oder nee, doch eher eine Tarrantino-Splatter-Komödie. Und jetzt doch eher mal so mit katholischen Schuldgefühlen als Scorcese-Drama. Schockt nicht. Lars Von Trier?

Wartet’s ab, genau so wird es kommen, und wenn nur deshalb, weil ich’s lustig fände. Mal sehn ob es dann noch `ne Producer-AI gibt, die beim Umsetzen hilft – wahrscheinlich auch wegrationalisiert – „Dafür reicht das Budget leider nicht“ kann die AI auch selber Feedbacken.

Weniger lustig: Ich glaube WIRKLICH, daß sowas kommen wird. Und ihr?

Der „Ted Lasso – Effekt“

Warum eigentlich sind 95% der AI Bewegtbildsachen in meinem Feed noch immer Schrott? Genauer: Bei Stills nähern wir uns Fotorealismus. Bei einzelnen Bewegtbild Shots wird’s schon ganz gut bis gut genug; nur ein ganzer (Werbe-)Film, und wenn nur 60 Sekunden, war bisher nicht in Sicht, und alle Versuche darüber waren inakzeptabel, die CocaCola Weihnachtsfilme sehr explizit eingeschlossen. Aber warum? Ich sage: Weil das zumeist von irgendwelchen Menschen kommt, die mit den Tools rumfummeln, aber nicht von Filmprofis. 

Das hat sich grade geändert. Sebastian Strasser hat einen Werbespot für Vodafone gemacht, der genau das will und zum großen Teil auch liefert, was zuvor schon die sagenwirmal 50 Vignettenfilme für Vodafone auch gemacht haben. 

Ich weiß, daß ihr jetzt meckern wollt. Ich habe 2 Millionen Beschwerden gelesen darüber wie schlecht der Film sei; die beziehen sich in Wahrheit sämtlich auf das Script. Whatever, sag ich da, ich bin kein Möchtegern-CD; ich bin Producer, ich finde also alle Skripte fantastisch. Agesehen von allem Detailgequengelkann ich als Producer zum ersten Mal Herrn Strassers Fazit teilen: „AI is here“!

Wie aber hat er es bloß geschafft, einen einigermaßen annehmbaren Film herzustellen? Ich möchte das den „TED LASSO – EFFEKT“ nennen: Jemand, der in seinem Metier richtig gut ist, überträgt sein Wissen, seine Methoden, seinen Geschmack, seine Workflows auf ein neues Metier. Wie Ted Lasso, der sich nur mit American Football auskennt, aus einem Haufen englischer Rumpelkicker eine gute Mannschaft macht, so hat Sebastian Strasser aus einem Haufen disparater, AI erzeugter Shots einen Film gemacht. Ted Lasso hat noch nicht die Meisterschaft gewonnen (ich bin noch in Staffel 2, kommt vielleicht noch), aber er ist auf einem vielversprechenden Weg. 

Ted Lasso hat keine Ahnung von Fußball, so wenig wie Seb Strasso von AI. Für viele Nerds vielleicht überraschend: Muß er auch nicht. Warum? Weil er seine Heads of Department hat, die sich auskennen, seine Subcoaches, und die Truppe von Fußballern, die wissen, wie man einen Ball kickt. Seb Strasso hat einen Creative Director, einen VFX Supervisor, eine Producerin, einen Editor, einen Grader, und jede Menge AI Artists und VFX Artists zum Reparieren von dem, was die AI versemmelt oder noch nicht hinbekommt. Er muß sich dafür nicht mit AI auskennen, das kann sogar hinderlich sein. Er muß vielmehr eine Vision für den Film haben. Sonst würden alle ohne einen gescheiten Coach im Nebel stochern und einen Ansammlung disparater Shots hintereinanderballern, aber keinen Film entstehen lassen.

Und umgekehrt: Regisseur und Midjourney und Runway werden auch keinen Film auf die Beine stellen; dafür braucht das AI Handling einfach viel zu viel Spezialwissen, was mit Regie Führen zero zu tun hat. Das übersieht man nur gern, weil die Tools so tun, als wenn sie nur ein bisschen Textprompting bräuchten. Ist natürlich Quatsch. Eine Slotmachine macht keinen Film, auch nicht wenn einer am Hebel zieht, der sich stolz Slot Machine Operator nennt.

Sebastian Strasser selbst hat auf dem Ciclope Festival davon berichtet, wie der Film entstanden ist, und das Interessanteste für mich war dabei, wie sehr er „einfach“ wie ein Regisseur da rangegangen ist, und eben nicht wie ein AI Nerd:

Er hat ein Storyboard gemacht; er hat eine riesige Cast Base sich aufgebaut an AI Darstellern (und war begeistert davon, daß er jetzt endlich seine DarstellerInnen zu 100% so bekommt, wie er sie möchte); er hat Räume und Welten und Hintergründe bauen lassen und durchgetauscht; er hat Shots generieren lassen ohne Ende, garantiert viiiiiel zu viele aus Producersicht; er hat seine AI Artists mit Filmbeispielen getriezt („Nein, Nein, der Raum muß viel mehr aussehen wie bei Cassavetes!“) und sich gewundert, daß die gar nicht wussten, wovon er redet; er hat alles in VFX basteln lassen was die AI versemmelt hat; er hat eine Riesentruppe an Spezialisten zusammengetrommelt, er hat nochmal auf Film ausbelichtet weil das irgendwie geiler aussieht (Der Look, das Grain, ihr wißt schon), selbst das persönliche Drama durfte nicht fehlen: Zwischendurch mußte der Director, so berichtet er, ins Krankenhaus gefahren werden, weil er nur noch Rechtecke gesehen habe. 

Wie klingt das für Euch? Was soll ich sagen: eigentlich alles wie immer, ob mit oder ohne AI – und mir scheint, daß erst und vor allem dieses „alles wie immer“ dazu geführt hat, daß dieser AI-Film am Ende auch ein Film geworden ist. More to come, nehme ich mal an.

Hervorgehoben

ENTWERTUNG

Ich hab in letzter Zeit versucht, den Disruptionsfaktor diverser generativer AI Tools im Bereich Bewegtbild fassbarer zu machen, ein Beispiel: „Beim Look Development ist der Disruptionsfaktor 10:1 weil man mit AI LookDev in 2 Stunden statt in 2 Tagen machen kann“. Dabei dämmert es mir jetzt erst, dass „Disruptionsfaktor“ nur ein Fancy Label ist für etwas wirklich Bedrohliches: Dieser Disruptionsfaktor misst eigentlich einen Grad von ENTWERTUNG. Vielleicht sollten wir zukünftig lieber vom „Entwertungsfaktor“ sprechen. 

Entwertung von was denn genau? Entwertung von Execution. Von informierter Umsetzung, von Handarbeit, von Pixelschubsen und Organisation. „Viele Menschen machen den Fehler zu glauben, dass mit einer Idee schon 90% der Arbeit getan wäre“. Steve Jobs hat recht: das ist Bullshit. Ein Großteil der kreativen Arbeit ist Execution. Ein Großteil von dem was eine Agentur tut – ein Großteil von dem, was eine Filmproduktion tut, sowieso. Da redet man nur nicht so gerne drüber, weil das irgendwie dem Selbstbild von Kreativen zu widersprechen scheint. Was bleibt, wenn einem die Execution aus der Hand genommen wird? Ideen haben. Und die heiligen, von kreativem Geist beseelten IDEEN! IDEEN! die kann einem natürlich keiner wegnehmen. Kann sein, aber damit ist noch lange nicht alles gut. Wenn uns nämlich jemand die Execution abnimmt, dann nimmt er uns 95% unserer Arbeit weg.

Das ist in vollem Gange: Indem AI für immer mehr Umsetzung von kreativer Arbeit benutzbar ist und benutzt wird, entwertet AI unser „Portfolio“ an angebotenen Leistungen. Messbar in dem Sinne, daß potenzielle Kunden ihnen keinen Wert mehr beimessen wollen: „Das könnt ihr doch mit AI in ein paar Stunden machen“. Und sie werden immer häufiger recht damit haben. 

DAS ist die Entwertung, über die wir reden müssen. Niemand nimmt uns unsere Ideen oder unseren taste, unser kreatives Urteilsvermögen. AI nimmt uns die Execution weg, und weil Execution ein Großteil der Arbeit ist, die wir ABRECHNEN, ist das vielleicht viel bedrohlicher. Das seht ihr nur alle nicht, wenn ihr der Execution zu wenig Bedeutung beimeßt. Euer eigener Säulenheiliger Steve Jobs wäre sauer auf euch! Das werdet ihr spätestens dann spüren, wenn euch keiner mehr für Execution bezahlt und ihr im Kreis lauft und euch gegenseitig eure tollen Ideen erzählt, aber keinen mehr findet, der euch dafür eine Rechnung stellen läßt.

Was jetzt?

Man kann einen immer größer werdenden Teil seiner Zeit damit verbringen, allen zu erklären, daß das ein Wahrnehmungsproblem sei: „Guckt mal genauer hin, das AI Zeug ist gar nicht WIRKLICH so gut wie (mein) Handgemachtes“, aber das wird ein immer schwerer zu machender Punkt werden.

Man kann sich auf die immer kleiner werdende IDEEN-Insel retten und glauben, daß das AI nie, nie, wirklich nie schaffen wird: Ideen zu haben. I got bad news for you – schaut mal ins Urheberrecht. Ideen sind nicht schützenswert, meine Lieben. Ideen hat jeder, ständig. Ideen brauchen Execution, Umsetzung, damit sie eine gewisse „Schöpfungshöhe“ erreichen, wie es so schön verquast-altdeutsch heißt, damit sie als Werk schützenswert werden. Will sagen: Ideen ohne Execution sind nichts wert. Ideen hat auch mein 9jähriger jeden Tag schon ein halbes Dutzend. Vor dem Frühstück.

Immer noch skeptisch? Dann fragt doch mal Midjourney, wie wertvoll Eure Ideen sind. Oder fragt besser nicht, da sich all diese AI Tools natürlich mit derselben künstlerfreundlichen Rhetorik schmücken, das haben sie sich bei den Pimps der Musikindustrie, den Plattenfirmen, abgeschaut. „We put creators at the centre of our strategy“ habe ich neulich einen TIKTOK Avatar sagen hören. Ohne Witz. Einen Avatar, der dafür gebaut worden ist, einen menschlichen Influencer zu ersetzen. So viel coporate Kaltschnäuzigkeit & Dummdreistigkeit kann man sich gar nicht ausdenken.

Die Cover Up Story aller generativen Tools ist ja dieselbe: „Du Mensch hast tolle Ideen, die du als Prompt eintippst, und wir kümmern uns um die Execution“. Das ist schlicht gelogen, wie jede/r testen kann, indem sie „Flitzenpiependrängel“ in das Promptfeld von Midjourney tippt. MJ produziert nämlich immer irgendwas, das so aussieht, als wenn eine Idee dahinter gesteckt hätte. Andersrum macht es MJ einem sehr schwer, eine wirklich konkrete Idee konkret umzusetzen. Diese Tools ballern immer eine Execution raus, egal ob du eine Idee einspeist oder „Flitzenpiependrängel“. Die Tools BRAUCHEN keine Ideen für ihre Execution. Die sind sich tendenziell selbst genug. Die haben alle Ideen schon beim Trainiert Werden absorbiert und können sie in einem unendlichen Strom von Execution in unendlichen Variationen wieder ausspucken. Flitzenpiependrängel sieht übrigens so aus:

Und was jetzt? „Ideen“ werden uns nicht retten, wenn uns jemand die Execution aus der Hand nimmt, auch wenn das noch so mafiös nett passiert. Wenn so ein fetter Konzern dir den Arm um die Schultern legt, sanft, aber mit milliardenschwerem Nachdruck, und so kreativkumpelhaft murmelt. „Mach dir keine Sorgen, wir übernehmen das ab jetzt.“ Was sie nicht so laut sagen: Ob du willst oder nicht. Ob dir das gefällt, wie wir das machen, oder nicht. Deine Kunden haben halt gesagt, daß wir das jetzt machen sollen. Unsere Investoren auch. War nett dich kennen gelernt zu haben. Kannst gerne weiterhin tolle Ideen haben und sie gegen nur noch 30 Euro Monatsabo als Prompt in unsere Eingabefelder tippen, aber eigentlich können wir das auch selber. Machen wir ja eh schon die ganze Zeit. Darfst uns noch ein bißchen trainieren und optimieren für die letzten 5%, aber dann hau bitte ab, okay?

Wenn wir uns die Execution wegnehmen lassen, dann sind wir im Eimer. Dann bleibt uns nichts mehr übrig, als wie die 3jährigen vor einer Textbox zu sitzen und unsere „Ideen“ einzutippen: „eine schöne frau am strand bei sonnenuntergang mit GUCCI klamotte. sie hat sommersprossen.“ und aus den tausend Ergebnissen, die die AI ausspuckt, dürfen wir dann drei raussuchen und sie dem Kunden präsentieren. Klingt Scheiße? Ist es auch.

Was also wirklich jetzt?

Wir dürfen uns die Execution nicht aus der Hand nehmen lassen. Wir sind hoffentlich nicht umsonst die Master der Execution Workflows. Wir haben eine über Jahrzehnte aufgebaute Expertise darin, Ideen perfekt umzusetzen. Mehr Expertise jedenfalls, als es braucht, um aus einem Satz mit 8 Wörtern einen Shot zu erzeugen, der einigermassen glaubhaft aussieht. Expertise, die beurteilen kann, wie der Shot zum ganzen Film paßt. Ob der Shot die bestmögliche Art & Weise ist, das zu erzählen, was er an dieser Stelle im Edit erzählen muß. Etc., etc., pp. Ihr wißt wovon ich rede, und das weiß AI noch lange nicht. Wir müssen uns die AI Tools untertan machen und sie in unsere Workflows einbauen dergestalt, dass jeder sehen kann, welchen Mehrwert das erzeugt im Vergleich mit jedem X-beliebigem AI-Schrott, der heute schon durch’s Netz wabert und von absichtslosem Stock Footage kaum zu unterscheiden ist.

Oder?

Podcast Folge 7! *und 5&6 auch!

„Wann endlich kommt denn die neue Podcast-Episode raus?“ habt ihr Euch sicher schon lange gefragt. Et Voilà:

Episode 7 – Tierärzte im Weltall, Germanische Seherinnen, Tocotronic und AI-Standup Comedy: Die kunterbunte Zukunft des Filmemachens!

Nachdem Daniel, Ilka und Icke die letzten beiden Episoden uns unter die Algorithmus-Beobachter und die Psychologen begeben hatten, gibt es diesmal wieder einen Filmemacher als Gast, der… aber hört selbst!