Implementation Gap

Ich sehe bei generativer AI einen massiven „Implementation Gap“.

Implementation Gap? Das erste Spülklosett wurde 1556 erfunden. Trotzdem gibt es im Jahr 2025 noch rund 550 Millionen Menschen allein in indien, die keins haben. Der Implementation Gap zwischen Erfindung und flächendeckender Verbreitung beträgt für Indien also fast 500 Jahre, and counting.

Dasselbe gilt für AI im Werbefilm. Der sehr schlaue Ethan Mollick, seines Zeichens Professor für Management in der Ivy-League-Schmiede Wharton, hat mal gesagt, selbst wenn in Sachen AI jegliche Innovation JETZT stoppen würde, würden Firmen – und das verallgemeinere ich mal auf uns als Ökosystem – mindestens 10 Jahre brauchen, um all das zu implementieren, was jetzt schon möglich ist.

Der Implementation Gap ist also mmerhin um den Faktor 50 kleiner als bei Spülklosetts, aber er ist ganz offensichtlich da.

Könnte man sich drum kümmern, wenn man Producer wäre, beispielsweise. 

Natürlich wäre es auch eine interessante Frage, ob der Fortschritt beim Filmemachen mit generativer AI tatsächlich so eindeutig ist wie der, wenn man nicht mehr hinter die eigene Hütte defäkieren muss, weil man jetzt ein Klo hat. Aber ich glaube die Frage haben leider bereits andere für uns entschieden, Freunde. Also los, chop chop!

Spare me yourselfie!

Warum sind diese AI-generierten Selfie/Vlog-Videos eigentlich so eine Sensation und Provokation? Der Humor, geschenkt. Daran kann’s nicht liegen. Steile These: Die sind deshalb so ein Stachel in meinem Fleisch, weil sie hinter dem vordergründigen Humor sich lustig machen über die Welten, die sie zusammenrühren und zugleich zu Grabe tragen, nämlich:

  1. Das Filmemachen mit fettem Production Value. Schaut Euch mal das Odysseus-Vlog an. Shots wie diese (vom bescheuerten ausgestreckten Selfie-Arm abgesehen) haben Wolfgang Petersen in Troja hunderttausende von Dollars beim Dreh und in der Post gekostet, die werden hier einfach mit VEO3 hintereinander weggeballert als wär nix.
  2. Die vermeintliche Authentizität des Vloggens. Der (müde) Witz ist ja nicht, dass Odysseus kein Iphone hatte. Der Witz ist, das Odysseus kein Iphone mehr BRAUCHT um Vlogs zu machen, weil es jetzt AI gibt. „There’s a joke here somewhere / and it’s on me“, wie Dr. Springsteen zu sagen pflegt.

Insofern ist das jenseits des Bru-Ha-Ha Effektes eine triumphale Geste, ein imperialer, raumgreifender Anspruch, den man aus Perspektive der generativen AI auch so formulieren könnte: Vielen Dank für all die Trainingsdaten aus hunderten von Sandalenfilmen und Milliarden an Selfies und Vlogs, ab jetzt machen wir das aber ohne Euch.

Aus meiner Perspektive, der ich eher bei den Sandalenfilmen als bei den Selfies zuhause bin, ist es ein kleiner, schadenfoher Trost, dass das unsägliche Social Media Gewackel, das uns so oft schon das Wasser abzugraben gedroht hat, jetzt selber zum Opfer des nächsten Innovationsschubs wird. Aber eben leider nur ein schwacher Trost.

Oh, und bitte keine weiteren AI Vlogs verlinken, I’ve seen it all, danke, reicht.

Hervorgehoben

Spielräume

Klaro, alle arbeiten grade dran, AI in ihre Workflows zu integrieren (oder sie bereiten sich stattdessen auf eine hoffentlich komfortable Frührente vor, auch ein legitimes Ziel, aber dazwischen gibt es nicht so viele Optionen). Der simpelste Ansatz dabei ist ja, einfach überall da AI zu benutzen, wo sie schon gut genug ist, das zu ersetzen, was wir sonst so tun. Das ist quasi ein Reflex in einer Werbefilmproduktion: „Ah, da gibts was Neues, das geht besser, günstiger, einfacher, dann machen wir das jetzt so“ – wie in Boogie Nights, als Porno eben auf einmal auf Video gedreht wurde, und olle Burt Reynolds seufzend & schulterzuckend auf VHS umstellt, ist halt so.

Dass das aber mehr sein wird als der Umstieg von analog auf digital habe ich schon x-fach betont. Hier kommt eine sehr luzide Warnung von Regisseur Jonathan Vardi, die wir alle im Auge behalten sollten: „Wenn wir am alten System von Briefings, Decks, Storyboards und endlosen Freigaben festhalten und das lediglich mit KI-Unterstützung tun, steuern wir geradewegs auf die seelenloseste und mechanischste Version unseres Handwerks zu.“

Wenn ihr schonmal einmal eine Full-CG-Produktion gefahren habt, kennt ihr die Blaupause für das, was uns bevorstehen könnte. Say Goodbye zu dem Spaß und den Möglichkeitsräumen, die ein Live-Dreh eröffnet. Und ich spreche nicht nur von dem zynischen Approach „War zwar ein langweiliges Script, aber dafür haben wir in Brasilien gedreht“. Ich spreche davon, mit vielen multitalentierten Menschen gemeinsam etwas zu entwickeln und zu optimieren und dabei auch dem Zufall Raum zu geben, Momente zu erwischen, die man selbst nie so hätte kreieren können – ihr wisst, wovon ich spreche.

Wenn all das durch KI ersetzt wird, was gewinnen wir stattdessen? Der shitty part einer zukünftigen AI-gestützten Filmproduktion wird nicht der AI part werden, sondern das, was aus der alten Welt übrigbleibt, und der auf einmal DAS KOMPLETTE PROJEKT VERSCHLUCKEN WIRD: starre Briefings, Pixelschubserei, endlose Feedbackschleifen.

Wir müssen es beim Namen nennen: es geht um die Dynamik von Gestaltungsfreiheit und Macht, die hier ganz neu verhandelt werden wird. Aktuell sieht es doch so aus: Kunde und Agentur kommen mit einem Skript und dem Budget zu uns – die Macht liegt zu 100 % auf ihrer Seite (ja, denkt meinetwegen gerne auch an STAR WARS, wenn ihr „DIE MACHT“ lest). Kluge Agenturen bauen hier bereits genügend Interpretationsspielräume in ihre Skripte ein. Andere hingegen haben schon alles an Kunden, Tester und Marketingmechanismen delegiert – deren Skripte könnte man tatsächlich direkt in die KI werfen und fertigstellen lassen, da ohnehin schon alles bis ins kleinste Detail vorgegeben ist.

Doch sobald der Auftrag vergeben ist, verschiebt sich das Gefüge („Ich fühle eine Erschütterung der Macht“): Natürlich hat die Agentur das letzte kreative Wort und alles muss im Rahmen des Budgets bleiben. Aber ab diesem Zeitpunkt liegt die MACHT, die Entscheidungsgewalt über das Ergebnis bei Regie & Produktion. Und das gilt umso mehr, sobald der Dreh beginnt. Und ist nicht gerade das der reizvolle Teil unseres Jobs? Gute Agenturen und Kunden verstehen diese Dynamik und lassen sie zu, denn sonst könnten sie es ja auch selbst machen (aber das Ergebnis würde wahrscheinlich auch so aussehen…).

Die eigentliche Gefahr einer KI-gestützten Filmzukunft liegt also nicht etwa darin, dass Kunden ihre Filme selbst erstellen. Sondern darin, dass dieser Moment der Übergabe nicht mehr stattfindet, dass man uns nicht mehr gestalten lässt, sondern dass alles in einem Strudel aus Feedbackschleifen, Abnahmen, Pixelschubserei und Framefucking untergeht.

Anstatt also die Workflows einer Full-CG-Produktion eins zu eins zu kopieren, sollten wir uns bei der Integration von KI in die Werbefilmproduktion unter anderem fragen:

  • Was war bisher unmöglich, und was machen wir mit unseren ganz speziellen, filmemacherischen Erfahrungen jetzt dank AI möglich?
  • Wie erhalten wir uns dabei die kreativen Freiräume, die uns in unserem aktuellen Filmschaffen überhaupt ermöglichen, etwas Großartiges abzuliefern?
  • Wie überzeugen wir Kunden und Agenturen davon, dass genau das notwendig ist, um gute Filme zu machen?

Sonst gewinnt die dunkle Seite der Macht, und wir produzieren am Ende nur noch Malen nach Zahlen. Oder vielmehr: sonst dürfen wir die KI beim Malen nach Zahlen beaufsichtigen. Das wäre der Worst Case und glaubt mir, das gilt nicht nur für uns Filmschaffende, sondern auch für Kunden und Agenturen. Wir müssen es ihnen nur so sagen, dass sie es uns auch glauben. Schickt gerne einen Link zu diesem Post weiter – you are welcome!

SHRINKED

Grade die tolle Serie „Shrinked“ auf Apple TV geschaut. Habe mich schon öfter gefragt, warum psychiatrische Setups so gerne auf dem Bildschirm landen, und hier ist mein heimlicher Verdacht: Weil alle writer einen Dachschaden  Weil das billig zu produzieren ist! Talking Heads. Menschen in  einem Raum, die reden und reden, Schuß – Gegenschuß, zack, schon wieder 5 Minuten Screentime gefüllt, ohne daß eine Armee über die Alpen marschieren oder Aliens aus einem senkrecht über dem Ozean schwebenden Raumschiff aussteigen müssen. Was das spart!

Im Ernst: Warum ist FRIENDS in einem einzigen Set entstanden? (Okay, drei: zwei Wohnungen, ein Cafe?) Weil das BILLIG ist, Punkt. 

Aber dieser ökonomische Druck, möglichst viel & oft quasselnde Menschen in einem Setting abzufeiern, verschwindet mit dem Beginn von generativem AI Filmmaking, weil es der AI tendenziell egal ist, ob sie einen Planeten explodieren oder einen Menschen sprechen läßt. Um genau zu sein: im Moment sehen explodierende Planeten deutlich besser aus als sprechende Menschen… Das heisst aber, da verschieben sich auf Dauer ganz viele gelernte und praktizierte Prioritäten und Gewichtungen bezüglich PRODUCTION VALUE. Historische Stoffe? Viel zu viel Art Department Aufwand. Massenszenen? Arghh. Dreibeinige Monster? Lass mal lieber.

Ich kann mich noch gut daran erinnern, wie mir ein befreundeter Writer mal ganz stolz sein Serienfinale zeigte, in dem er zum ersten Mal einen Wohnungsbrand reinschreiben hatte dürfen. Feuer! In einer Wohnung! Irre. Da würde der AI Filmer sagen: „Wohnungsbrand? Warum nicht gleich die ganze Stadt abfackeln, be my guest!“

Mal gucken, ob damit auch der Hang zum Psychiatrischen in den Drehbüchern weniger wird – wäre andererseits natürlich tragisch, wenn Tony Soprano nie beim Shrink gelandet wäre. 

Hervorgehoben

Agentic Directing

Agentic AI soll ja das ganz große Ding für 2025 sein, aber ist da was in Sicht in Sachen Filmemachen?

Keine Agenten in Sicht, sag ich mal: Momentan sind AI Workflows verflucht komplexe Setups, bei denen schon jetzt diverse AIs zusammegestöpselt werden: mit Gemini einen Prompt schreiben, der mir in Midjourney das bestmögliche Bild macht; dann dieses Bild in die nächste AI füttern, sagen wir KLING, um eine Bewegtbildsequenz daraus zu erstellen; dann mit Elevenlabs vertonen etc.

Das kannst du dir per Hand puzzeln, das ist alle paar Tage neu; du kannst in Foren & mit Freunden heisse Tips austauschen was wofür am besten ist. Du kannst auch schon diverse Produkte nutzen, die bei der Integration der Arbeitsschritte helfen, Canvasses wie Flora oder Freepik, die viele AIs in einer Oberfläche zusammenführen; Suites wie LTX, die in einem integrierten System alle Arbeitsschritte des Filmschaffens zusammenführen – Storyboarding, Shoterstellung, Kameradirections, Grading, Edit etc…

Der neueste Shit:  ChatGPT und Gemini sind nicht mehr promptbasiert, sondern „conversational“ und integrieren Workflows in den generativen Prozeß wie „mach mal das Shirt anders“: sie sind also auf dem Weg von der Slot Machine – immer alles neu – hin zu einem non-destructive workflow, bei dem ich Details verändern kann anstatt immer wieder von Null zu starten.

ABER. Agentic? Was noch immer so ist, egal in welchem Ökosystem du da unterwegs bist: Du brauchst selber eine Vision, eine Idee. Und du mußt sie auch umsetzen, du mußt also Director sein, und deinen AIs directions geben. Aber wer ist schon ein Director? Moment, was war nochmal die große Prediction für 2025? Ach ja, das Jahr von Agentic AI.

Aktuell ist ja das Versprechen von AGENTIC AI eher, daß demnächst ein AI AGENT autonom meinen nächsten Trip nach Paris für mich organisiert, und dabei meine diätetischen & hoteltechnischen Vorlieben, Timingvorgaben und Airlinepräferenzen berücksichtigt, aber warum nicht einen Schritt weitergehen – was ist eigentlich mit AGENTIC DIRECTION?

Warum eigentlich kann ich nicht einen Regie-AI-Agenten trainieren? Einfach zwei Jahre lang alle Regie-Ratgeber, Filmhandbücher, Oscar-Filme, Making Ofs, Proseminar-Transkripte der HFF und Restaurant-Präferenzen für Barcelona füttern und LOS GEHT’S:

Liebe Regie-AI, hier ist meine Filmidee: „Aliens wollen Justin Bieber entführen, um auf ihrem Heimatplaneten eine Justin Bieber Mania auszulösen, entführen aber aus Versehen nur sein Karaoke-Lookalike, und dann bricht die Hölle los auf Bragulon Kappa“

So, kann ich das bitte einmal als Wes Anderson Film sehen? Oder nee, doch eher eine Tarrantino-Splatter-Komödie. Und jetzt doch eher mal so mit katholischen Schuldgefühlen als Scorcese-Drama. Schockt nicht. Lars Von Trier?

Wartet’s ab, genau so wird es kommen, und wenn nur deshalb, weil ich’s lustig fände. Mal sehn ob es dann noch `ne Producer-AI gibt, die beim Umsetzen hilft – wahrscheinlich auch wegrationalisiert – „Dafür reicht das Budget leider nicht“ kann die AI auch selber Feedbacken.

Weniger lustig: Ich glaube WIRKLICH, daß sowas kommen wird. Und ihr?

Der „Ted Lasso – Effekt“

Warum eigentlich sind 95% der AI Bewegtbildsachen in meinem Feed noch immer Schrott? Genauer: Bei Stills nähern wir uns Fotorealismus. Bei einzelnen Bewegtbild Shots wird’s schon ganz gut bis gut genug; nur ein ganzer (Werbe-)Film, und wenn nur 60 Sekunden, war bisher nicht in Sicht, und alle Versuche darüber waren inakzeptabel, die CocaCola Weihnachtsfilme sehr explizit eingeschlossen. Aber warum? Ich sage: Weil das zumeist von irgendwelchen Menschen kommt, die mit den Tools rumfummeln, aber nicht von Filmprofis. 

Das hat sich grade geändert. Sebastian Strasser hat einen Werbespot für Vodafone gemacht, der genau das will und zum großen Teil auch liefert, was zuvor schon die sagenwirmal 50 Vignettenfilme für Vodafone auch gemacht haben. 

Ich weiß, daß ihr jetzt meckern wollt. Ich habe 2 Millionen Beschwerden gelesen darüber wie schlecht der Film sei; die beziehen sich in Wahrheit sämtlich auf das Script. Whatever, sag ich da, ich bin kein Möchtegern-CD; ich bin Producer, ich finde also alle Skripte fantastisch. Agesehen von allem Detailgequengelkann ich als Producer zum ersten Mal Herrn Strassers Fazit teilen: „AI is here“!

Wie aber hat er es bloß geschafft, einen einigermaßen annehmbaren Film herzustellen? Ich möchte das den „TED LASSO – EFFEKT“ nennen: Jemand, der in seinem Metier richtig gut ist, überträgt sein Wissen, seine Methoden, seinen Geschmack, seine Workflows auf ein neues Metier. Wie Ted Lasso, der sich nur mit American Football auskennt, aus einem Haufen englischer Rumpelkicker eine gute Mannschaft macht, so hat Sebastian Strasser aus einem Haufen disparater, AI erzeugter Shots einen Film gemacht. Ted Lasso hat noch nicht die Meisterschaft gewonnen (ich bin noch in Staffel 2, kommt vielleicht noch), aber er ist auf einem vielversprechenden Weg. 

Ted Lasso hat keine Ahnung von Fußball, so wenig wie Seb Strasso von AI. Für viele Nerds vielleicht überraschend: Muß er auch nicht. Warum? Weil er seine Heads of Department hat, die sich auskennen, seine Subcoaches, und die Truppe von Fußballern, die wissen, wie man einen Ball kickt. Seb Strasso hat einen Creative Director, einen VFX Supervisor, eine Producerin, einen Editor, einen Grader, und jede Menge AI Artists und VFX Artists zum Reparieren von dem, was die AI versemmelt oder noch nicht hinbekommt. Er muß sich dafür nicht mit AI auskennen, das kann sogar hinderlich sein. Er muß vielmehr eine Vision für den Film haben. Sonst würden alle ohne einen gescheiten Coach im Nebel stochern und einen Ansammlung disparater Shots hintereinanderballern, aber keinen Film entstehen lassen.

Und umgekehrt: Regisseur und Midjourney und Runway werden auch keinen Film auf die Beine stellen; dafür braucht das AI Handling einfach viel zu viel Spezialwissen, was mit Regie Führen zero zu tun hat. Das übersieht man nur gern, weil die Tools so tun, als wenn sie nur ein bisschen Textprompting bräuchten. Ist natürlich Quatsch. Eine Slotmachine macht keinen Film, auch nicht wenn einer am Hebel zieht, der sich stolz Slot Machine Operator nennt.

Sebastian Strasser selbst hat auf dem Ciclope Festival davon berichtet, wie der Film entstanden ist, und das Interessanteste für mich war dabei, wie sehr er „einfach“ wie ein Regisseur da rangegangen ist, und eben nicht wie ein AI Nerd:

Er hat ein Storyboard gemacht; er hat eine riesige Cast Base sich aufgebaut an AI Darstellern (und war begeistert davon, daß er jetzt endlich seine DarstellerInnen zu 100% so bekommt, wie er sie möchte); er hat Räume und Welten und Hintergründe bauen lassen und durchgetauscht; er hat Shots generieren lassen ohne Ende, garantiert viiiiiel zu viele aus Producersicht; er hat seine AI Artists mit Filmbeispielen getriezt („Nein, Nein, der Raum muß viel mehr aussehen wie bei Cassavetes!“) und sich gewundert, daß die gar nicht wussten, wovon er redet; er hat alles in VFX basteln lassen was die AI versemmelt hat; er hat eine Riesentruppe an Spezialisten zusammengetrommelt, er hat nochmal auf Film ausbelichtet weil das irgendwie geiler aussieht (Der Look, das Grain, ihr wißt schon), selbst das persönliche Drama durfte nicht fehlen: Zwischendurch mußte der Director, so berichtet er, ins Krankenhaus gefahren werden, weil er nur noch Rechtecke gesehen habe. 

Wie klingt das für Euch? Was soll ich sagen: eigentlich alles wie immer, ob mit oder ohne AI – und mir scheint, daß erst und vor allem dieses „alles wie immer“ dazu geführt hat, daß dieser AI-Film am Ende auch ein Film geworden ist. More to come, nehme ich mal an.

Hervorgehoben

ENTWERTUNG

Ich hab in letzter Zeit versucht, den Disruptionsfaktor diverser generativer AI Tools im Bereich Bewegtbild fassbarer zu machen, ein Beispiel: „Beim Look Development ist der Disruptionsfaktor 10:1 weil man mit AI LookDev in 2 Stunden statt in 2 Tagen machen kann“. Dabei dämmert es mir jetzt erst, dass „Disruptionsfaktor“ nur ein Fancy Label ist für etwas wirklich Bedrohliches: Dieser Disruptionsfaktor misst eigentlich einen Grad von ENTWERTUNG. Vielleicht sollten wir zukünftig lieber vom „Entwertungsfaktor“ sprechen. 

Entwertung von was denn genau? Entwertung von Execution. Von informierter Umsetzung, von Handarbeit, von Pixelschubsen und Organisation. „Viele Menschen machen den Fehler zu glauben, dass mit einer Idee schon 90% der Arbeit getan wäre“. Steve Jobs hat recht: das ist Bullshit. Ein Großteil der kreativen Arbeit ist Execution. Ein Großteil von dem was eine Agentur tut – ein Großteil von dem, was eine Filmproduktion tut, sowieso. Da redet man nur nicht so gerne drüber, weil das irgendwie dem Selbstbild von Kreativen zu widersprechen scheint. Was bleibt, wenn einem die Execution aus der Hand genommen wird? Ideen haben. Und die heiligen, von kreativem Geist beseelten IDEEN! IDEEN! die kann einem natürlich keiner wegnehmen. Kann sein, aber damit ist noch lange nicht alles gut. Wenn uns nämlich jemand die Execution abnimmt, dann nimmt er uns 95% unserer Arbeit weg.

Das ist in vollem Gange: Indem AI für immer mehr Umsetzung von kreativer Arbeit benutzbar ist und benutzt wird, entwertet AI unser „Portfolio“ an angebotenen Leistungen. Messbar in dem Sinne, daß potenzielle Kunden ihnen keinen Wert mehr beimessen wollen: „Das könnt ihr doch mit AI in ein paar Stunden machen“. Und sie werden immer häufiger recht damit haben. 

DAS ist die Entwertung, über die wir reden müssen. Niemand nimmt uns unsere Ideen oder unseren taste, unser kreatives Urteilsvermögen. AI nimmt uns die Execution weg, und weil Execution ein Großteil der Arbeit ist, die wir ABRECHNEN, ist das vielleicht viel bedrohlicher. Das seht ihr nur alle nicht, wenn ihr der Execution zu wenig Bedeutung beimeßt. Euer eigener Säulenheiliger Steve Jobs wäre sauer auf euch! Das werdet ihr spätestens dann spüren, wenn euch keiner mehr für Execution bezahlt und ihr im Kreis lauft und euch gegenseitig eure tollen Ideen erzählt, aber keinen mehr findet, der euch dafür eine Rechnung stellen läßt.

Was jetzt?

Man kann einen immer größer werdenden Teil seiner Zeit damit verbringen, allen zu erklären, daß das ein Wahrnehmungsproblem sei: „Guckt mal genauer hin, das AI Zeug ist gar nicht WIRKLICH so gut wie (mein) Handgemachtes“, aber das wird ein immer schwerer zu machender Punkt werden.

Man kann sich auf die immer kleiner werdende IDEEN-Insel retten und glauben, daß das AI nie, nie, wirklich nie schaffen wird: Ideen zu haben. I got bad news for you – schaut mal ins Urheberrecht. Ideen sind nicht schützenswert, meine Lieben. Ideen hat jeder, ständig. Ideen brauchen Execution, Umsetzung, damit sie eine gewisse „Schöpfungshöhe“ erreichen, wie es so schön verquast-altdeutsch heißt, damit sie als Werk schützenswert werden. Will sagen: Ideen ohne Execution sind nichts wert. Ideen hat auch mein 9jähriger jeden Tag schon ein halbes Dutzend. Vor dem Frühstück.

Immer noch skeptisch? Dann fragt doch mal Midjourney, wie wertvoll Eure Ideen sind. Oder fragt besser nicht, da sich all diese AI Tools natürlich mit derselben künstlerfreundlichen Rhetorik schmücken, das haben sie sich bei den Pimps der Musikindustrie, den Plattenfirmen, abgeschaut. „We put creators at the centre of our strategy“ habe ich neulich einen TIKTOK Avatar sagen hören. Ohne Witz. Einen Avatar, der dafür gebaut worden ist, einen menschlichen Influencer zu ersetzen. So viel coporate Kaltschnäuzigkeit & Dummdreistigkeit kann man sich gar nicht ausdenken.

Die Cover Up Story aller generativen Tools ist ja dieselbe: „Du Mensch hast tolle Ideen, die du als Prompt eintippst, und wir kümmern uns um die Execution“. Das ist schlicht gelogen, wie jede/r testen kann, indem sie „Flitzenpiependrängel“ in das Promptfeld von Midjourney tippt. MJ produziert nämlich immer irgendwas, das so aussieht, als wenn eine Idee dahinter gesteckt hätte. Andersrum macht es MJ einem sehr schwer, eine wirklich konkrete Idee konkret umzusetzen. Diese Tools ballern immer eine Execution raus, egal ob du eine Idee einspeist oder „Flitzenpiependrängel“. Die Tools BRAUCHEN keine Ideen für ihre Execution. Die sind sich tendenziell selbst genug. Die haben alle Ideen schon beim Trainiert Werden absorbiert und können sie in einem unendlichen Strom von Execution in unendlichen Variationen wieder ausspucken. Flitzenpiependrängel sieht übrigens so aus:

Und was jetzt? „Ideen“ werden uns nicht retten, wenn uns jemand die Execution aus der Hand nimmt, auch wenn das noch so mafiös nett passiert. Wenn so ein fetter Konzern dir den Arm um die Schultern legt, sanft, aber mit milliardenschwerem Nachdruck, und so kreativkumpelhaft murmelt. „Mach dir keine Sorgen, wir übernehmen das ab jetzt.“ Was sie nicht so laut sagen: Ob du willst oder nicht. Ob dir das gefällt, wie wir das machen, oder nicht. Deine Kunden haben halt gesagt, daß wir das jetzt machen sollen. Unsere Investoren auch. War nett dich kennen gelernt zu haben. Kannst gerne weiterhin tolle Ideen haben und sie gegen nur noch 30 Euro Monatsabo als Prompt in unsere Eingabefelder tippen, aber eigentlich können wir das auch selber. Machen wir ja eh schon die ganze Zeit. Darfst uns noch ein bißchen trainieren und optimieren für die letzten 5%, aber dann hau bitte ab, okay?

Wenn wir uns die Execution wegnehmen lassen, dann sind wir im Eimer. Dann bleibt uns nichts mehr übrig, als wie die 3jährigen vor einer Textbox zu sitzen und unsere „Ideen“ einzutippen: „eine schöne frau am strand bei sonnenuntergang mit GUCCI klamotte. sie hat sommersprossen.“ und aus den tausend Ergebnissen, die die AI ausspuckt, dürfen wir dann drei raussuchen und sie dem Kunden präsentieren. Klingt Scheiße? Ist es auch.

Was also wirklich jetzt?

Wir dürfen uns die Execution nicht aus der Hand nehmen lassen. Wir sind hoffentlich nicht umsonst die Master der Execution Workflows. Wir haben eine über Jahrzehnte aufgebaute Expertise darin, Ideen perfekt umzusetzen. Mehr Expertise jedenfalls, als es braucht, um aus einem Satz mit 8 Wörtern einen Shot zu erzeugen, der einigermassen glaubhaft aussieht. Expertise, die beurteilen kann, wie der Shot zum ganzen Film paßt. Ob der Shot die bestmögliche Art & Weise ist, das zu erzählen, was er an dieser Stelle im Edit erzählen muß. Etc., etc., pp. Ihr wißt wovon ich rede, und das weiß AI noch lange nicht. Wir müssen uns die AI Tools untertan machen und sie in unsere Workflows einbauen dergestalt, dass jeder sehen kann, welchen Mehrwert das erzeugt im Vergleich mit jedem X-beliebigem AI-Schrott, der heute schon durch’s Netz wabert und von absichtslosem Stock Footage kaum zu unterscheiden ist.

Oder?

Podcast Folge 7! *und 5&6 auch!

„Wann endlich kommt denn die neue Podcast-Episode raus?“ habt ihr Euch sicher schon lange gefragt. Et Voilà:

Episode 7 – Tierärzte im Weltall, Germanische Seherinnen, Tocotronic und AI-Standup Comedy: Die kunterbunte Zukunft des Filmemachens!

Nachdem Daniel, Ilka und Icke die letzten beiden Episoden uns unter die Algorithmus-Beobachter und die Psychologen begeben hatten, gibt es diesmal wieder einen Filmemacher als Gast, der… aber hört selbst!

Ein Tausendstel

Seit der AI Hype angefangen hat, versuche ich, an den ganzen ästhetischen, kreativen, gesellschaftskritischen, arbeitsmarkbezogenen und sonstigen Diskussionen absichtlich vorbeizuhören und mich stattdessen zu fragen: Was ist denn jetzt das Disruptionspotenzial von generativer AI in unserem Business? Noch genauer: Kann man da, wir sind ja schließlich Producer, irgendwie mal ’ne Zahl dranhängen bittesehr? Könnte man ja wohl mal versuchen. Schließlich hängen wir ja auch jeden Tag Zahlen an Agenturskripte, die regelmäßig kaum verbindlicher sind als die Frage „Was kostet eigentlich so ein AI Film“, also let’s go for it!

Der Regisseur Paul Trillo hat Zugang zu SORA und hat damit ein fantastisches Musikvideo gemacht, eine wahre Materialschlacht nach klassischen Maßstäben. Im FX GUIDE gibt es eine Analyse, die greifbar macht, was da auf uns zurast.

Trillo hat rund 240Minuten generiert für 4Minuten finalen Film, das macht eine shooting ratio von 60:1. Eigentlich nix Besonderes, erst recht nicht für ein Tool das noch in den Kinderschuhen steckt.

Irrerweise hat er dabei nur ein paar wenige Übergänge mit After FX getrimmt und alles gegradet, der Rest kommt so direkt aus SORA – woran man sich schon alles gewöhnt hat! Ich hab schon so Kommentare gehört wie „Holt mich nicht ab“… Ich selber bin noch beim dritten Mal Gucken geflasht von der Materialfülle, der weiredness, dem Tempo, dem Sog, den das erzeugt, aber egal: anderes Thema.

Der FX Guide hat die Kosten für die Computing-Leistung dahinter mit rund 650$ berechnet. Nicht für SORA wohlgemerkt, die haben noch gar kein Preismodell, aber für die erforderliche Computing Power, die man anhand von Tech Specs berechnen kann, die SORA veröffentlicht hat. Zu teuer für Amateure, aber ein Schnäppchen für professionelle Anwender.

Zum Vergleich: Dieses Musikvideo nach klassischen Gesetzen herzustellen ist budgetär kaum abbildbar bei der Anzahl an Szenen, Sets, Darstellern etc. 50-60 Sets; sagenwirmal 10 Drehtage, tonnenweise VFX… Egal, nehmen wir an, es hätte abgesehen von Regiegage und Konzeption, die ja für die SORA Version auch anfallen, wild guess: 650.000 gekostet, nach oben hin seeehr offen. Dagegen stehen 650 für Computingkosten.

Wenn also mal jemand das Disruptionspotenzial von Sora für den Kernbereich unseres Wirkens – das Filme Machen – mit einer Zahl versehen möchte, hier ist sie: Der Aufwand sinkt potenziell auf ein Tausendstel. BÄÄÄÄÄM!

Ist ja nur ’ne Zahl? Geht mal zu einem Autokonzern und erklärt denen, daß jemand grade eine Methode gefunden hat, ihr Auto für ein Drittel der Kosten herzustellen. Da fällt denen der Kitt aus der Brille. Bei einem Drittel, nicht bei einem Tausendstel.

Und ja, ich weiß: Es gibt X Gründe, warum das Video von Paul Trillo noch nicht so gut ist, als wenn man alle erdenklichen verfügbaren High End Tools und Realdreh dafür aktivieren würde. „Die letzten 5% sind immer die schwierigsten“, „Die Characters sind noch nicht konsistent“ etc etc yadda yadda yadda. Aber das ist doch alles MiMiMi angesichts des POTENZIALS einer Ersparnis von 1.000:1! Hallo, Kapitalismus und so???

Mal anders herum gefragt: Glaubt ihr, daß diese Ratio 1.000:1 genügend Anreiz hergibt, um Character konsistent zu machen und die letzten 5% auch noch hinzubekommen? Glaubt ihr, daß Sam Altman ein paar Milliönchen von den 7 Billionen Dollar ($7.000.000.000.000 – auch nur eine Zahl, aber eine Zahl mit 12 Nullen, mehr als ein Viertel des GDP der USA), die er für AI gern aufstellen möchte, da reinstecken wird? Wetten und Gegenwetten bitte gerne in die Kommentare.

Oh, und wer Langeweile hat, hört sich einfach unsere jüngste Podcast-Folge an (oder die davor, die ist auch super): https://www.filmmakingfuture.com

Der Blog zum Hören

Ooops, schon die dritte Episode draußen, da dann wird’s aber Zeit hierfür, was?

Mit meinen fabulösen Kolleginnen von anno dunnemals, der Editorin Ilka Risse und dem Regisseur Daniel Lwowski, habe ich mich daran gemacht, diverse Themen zu vertonen, die auch schon durch meine Blogs geistern. Insbesondere fragen wir uns, was denn da gerade mit unserem geliebtem Metier, dem Filme machen, passiert, und wie es vielleicht weitergehen könnte. Mutige würden „Podcast“ dazu sagen! Gerne mal mit ungläubigem Gekicher und im vollen Gallopp durch die Wortspielhölle, aber versprochenermassen immer das Thema ZUKUNFT fest im Auge behaltend…

In der ersten Folge stellen wir uns vor und das, worüber wir zukünftig sprechen und Gäste befragen werden.

In der zweiten Folge stellen wir Euch die neuen Tools vor, die wir bereits benutzt oder ausprobiert haben von Elevenlabs über Heygen zu Suno.

In der dritten Folge „Mit Klonen vertonen“ haben wir unseren ersten Gast, Michael Ivert, und plaudern darüber, wie sich AI ins Synchron-Business vorarbeitet. Zuvor testet Ilka todesmutig am eigenen Leib das Stimm-Klon-Tool Elevenlabs und wird nacheinander unfreiwillig in eine Bayerin, eine Schottin und eine Russin verwandelt, ist aber am Ende auch wider Willen von den möglichen Ergebnissen beeindruckt. „Check it out“, wie meinetwegen Markus Kavka vielleicht sagen würde!