Podcast Folge 7! *und 5&6 auch!

„Wann endlich kommt denn die neue Podcast-Episode raus?“ habt ihr Euch sicher schon lange gefragt. Et Voilà:

Episode 7 – Tierärzte im Weltall, Germanische Seherinnen, Tocotronic und AI-Standup Comedy: Die kunterbunte Zukunft des Filmemachens!

Nachdem Daniel, Ilka und Icke die letzten beiden Episoden uns unter die Algorithmus-Beobachter und die Psychologen begeben hatten, gibt es diesmal wieder einen Filmemacher als Gast, der… aber hört selbst!

Hervorgehoben

Ein Tausendstel

Seit der AI Hype angefangen hat, versuche ich, an den ganzen ästhetischen, kreativen, gesellschaftskritischen, arbeitsmarkbezogenen und sonstigen Diskussionen absichtlich vorbeizuhören und mich stattdessen zu fragen: Was ist denn jetzt das Disruptionspotenzial von generativer AI in unserem Business? Noch genauer: Kann man da, wir sind ja schließlich Producer, irgendwie mal ’ne Zahl dranhängen bittesehr? Könnte man ja wohl mal versuchen. Schließlich hängen wir ja auch jeden Tag Zahlen an Agenturskripte, die regelmäßig kaum verbindlicher sind als die Frage „Was kostet eigentlich so ein AI Film“, also let’s go for it!

Der Regisseur Paul Trillo hat Zugang zu SORA und hat damit ein fantastisches Musikvideo gemacht, eine wahre Materialschlacht nach klassischen Maßstäben. Im FX GUIDE gibt es eine Analyse, die greifbar macht, was da auf uns zurast.

Trillo hat rund 240Minuten generiert für 4Minuten finalen Film, das macht eine shooting ratio von 60:1. Eigentlich nix Besonderes, erst recht nicht für ein Tool das noch in den Kinderschuhen steckt.

Irrerweise hat er dabei nur ein paar wenige Übergänge mit After FX getrimmt und alles gegradet, der Rest kommt so direkt aus SORA – woran man sich schon alles gewöhnt hat! Ich hab schon so Kommentare gehört wie „Holt mich nicht ab“… Ich selber bin noch beim dritten Mal Gucken geflasht von der Materialfülle, der weiredness, dem Tempo, dem Sog, den das erzeugt, aber egal: anderes Thema.

Der FX Guide hat die Kosten für die Computing-Leistung dahinter mit rund 650$ berechnet. Nicht für SORA wohlgemerkt, die haben noch gar kein Preismodell, aber für die erforderliche Computing Power, die man anhand von Tech Specs berechnen kann, die SORA veröffentlicht hat. Zu teuer für Amateure, aber ein Schnäppchen für professionelle Anwender.

Zum Vergleich: Dieses Musikvideo nach klassischen Gesetzen herzustellen ist budgetär kaum abbildbar bei der Anzahl an Szenen, Sets, Darstellern etc. 50-60 Sets; sagenwirmal 10 Drehtage, tonnenweise VFX… Egal, nehmen wir an, es hätte abgesehen von Regiegage und Konzeption, die ja für die SORA Version auch anfallen, wild guess: 650.000 gekostet, nach oben hin seeehr offen. Dagegen stehen 650 für Computingkosten.

Wenn also mal jemand das Disruptionspotenzial von Sora für den Kernbereich unseres Wirkens – das Filme Machen – mit einer Zahl versehen möchte, hier ist sie: Der Aufwand sinkt potenziell auf ein Tausendstel. BÄÄÄÄÄM!

Ist ja nur ’ne Zahl? Geht mal zu einem Autokonzern und erklärt denen, daß jemand grade eine Methode gefunden hat, ihr Auto für ein Drittel der Kosten herzustellen. Da fällt denen der Kitt aus der Brille. Bei einem Drittel, nicht bei einem Tausendstel.

Und ja, ich weiß: Es gibt X Gründe, warum das Video von Paul Trillo noch nicht so gut ist, als wenn man alle erdenklichen verfügbaren High End Tools und Realdreh dafür aktivieren würde. „Die letzten 5% sind immer die schwierigsten“, „Die Characters sind noch nicht konsistent“ etc etc yadda yadda yadda. Aber das ist doch alles MiMiMi angesichts des POTENZIALS einer Ersparnis von 1.000:1! Hallo, Kapitalismus und so???

Mal anders herum gefragt: Glaubt ihr, daß diese Ratio 1.000:1 genügend Anreiz hergibt, um Character konsistent zu machen und die letzten 5% auch noch hinzubekommen? Glaubt ihr, daß Sam Altman ein paar Milliönchen von den 7 Billionen Dollar ($7.000.000.000.000 – auch nur eine Zahl, aber eine Zahl mit 12 Nullen, mehr als ein Viertel des GDP der USA), die er für AI gern aufstellen möchte, da reinstecken wird? Wetten und Gegenwetten bitte gerne in die Kommentare.

Oh, und wer Langeweile hat, hört sich einfach unsere jüngste Podcast-Folge an (oder die davor, die ist auch super): https://www.filmmakingfuture.com

Hervorgehoben

More Risk, Less Fun

Wir gratulieren uns ja seit ein paar Jahren ständig selbst dazu, daß seit der Einführung des Kalkulationsstandards SCoPE nicht mehr über MarkUp gesprochen werde. Mach ich jetzt trotzdem mal. Hat ja auch die Kunden keineswegs davon abgehalten, uns weiterhin MarkUp-Sätze vorzugeben. Vielleicht ist das damals ja auch deshalb vergleichsweise easy bei den Kunden durchgeflutscht, weil sie sich gedacht haben: „Solange diese aufmüpfigen Werbefilmer sich an unsere komplett aus dem Ohr gezogenen MarkUp Vorgaben halten, soll es mir doch schnuppe sein, ob sie das ausweisen oder nicht!“

Ihr habt bestimmt schon viele MarkUp Definitionen gehört, aber hier kommt Producer Pauly seine Spezialdefinition: Das MarkUp einer Werbefilmproduktion setzt sich zusammen aus zwei Teilen, dem Gewinn- und Handlungskostenaufschlag, wie ihn auch eine Serviceproduktion berechnet, und einem weiteren Aufschlag, der als Risikoprämie fungiert dafür, dass wir Werbefilmproduziererinnen und -produzierer eine Preisgarantie abgeben. Das habt ihr anders gelernt? Ich kann alles erklären!

Wie geht die weltweit seit Jahrzehnten anerkannte Preisgestaltung einer ServiceProduktion? Ganz einfach: 10% ist der Preisaufschlag, den jeder Kunde schulterzuckend als die ganz normale MarkUp Fee akzeptiert, die man einer Service Produktion für ein CostPlus Projekt bezahlt. „Cost Plus“ ist ja nur eine andere Formulierung dafür, dass die Service Produktion eben keine Preisgarantie abgibt. Sie schlägt stattdessen 10% auf die tatsächlich angefallenen Kosten auf.

Auch wenn beide nahezu dieselben Kalkulationsformulare benutzen, auch wenn wir beide irgendwie von unserem MarkUp leben, unterscheidet sich unser Geschäftsmodell vor allem wegen der genannten Preisgarantie. Aber kalkulieren wir jetzt ein Line Item mit der Bezeichnung „Preisgarantieübernahmerisikoprämienaufschlag“? Nee, tun wir natürlich nicht. Der Unterschied unserer Geschäftsmodelle verbirgt sich schlicht in unserem höheren Markup.

Wie hoch muß aber der Unterschied zwischen diesen beiden Markup-Sorten sein, damit er diese  Preisgarantie belastbar abbildet? Die historische Voreinstellung in unseren Kalkulationen von 26,5 % habe ich schon sehr lange in freier Wildbahn nicht mehr gesehen. Die wahre Antwort geben Werbefilmproduktionen stattdessen jeden Tag, indem sie Angebote abgeben: deren Markup liegt sachichjetzteinfachmalsoausderLuftgegriffen irgendwo zwischen 20% und immer häufiger 15%. Frei aus der Luft gegriffene Zahlen natürlich!

So, jetzt haben wir alle Fakten zusammen: Die Prämie für die Preisübernahmegarantie liegt beim Abstand zwischen 10% Service-MarkUp und einem durchschnittlichen Werbefilmproduktions-MarkUp, vermutlich aktuell irgendwo zwischen fünf und zehn Prozent. Ist das viel? Wenig? Die meisten Werbefilmproduktionen leben ja noch, aber ich verrate sicher kein Geheimnis wenn ich sage: das ist verdammt haarscharf kalkuliert und puffert wahrlich keine großen Risiken ab, auch wenn es das eigentlich müsste.

Was bringt diese Betrachtunsgweise, diese Producer Pauly Formel vom Werbefilm-Markup = CostPlus Markup + Preisgarantie-Risikopämie? Wenn man das mal einen Moment lang so betrachtet, dann kann man auf die Entwicklung der letzten Jahre blicken – Spoiler alert: Tendenz sinkend – und konstatieren: Wenn das Werbefilm-Markup zu sehr sich den 10% des CostPlus Modells nähert, wenn also die Prämie dafür, dass wir in diesem hochvolatilen und komplett auf Kunden-Pleasing ausgerichteten Von-Der-Hand-In-Den-Mund-Business auch noch die Garantie für die Einhaltung eines abgegebenen Preises übernehmen, gegen Null sich bewegt, dann ist sie schlicht zu niedrig und damit, hier mal in Großbuchstaben, GEHT DAS AN DIE WURZEL UNSERES GESCHÄFTSMODELLS.

„Producer Pauly übertreibt“, höre ich manchen murmeln, „Preisgarantie, das ist doch nur ein Vertragsdetail, ist denn das wirklich so wichtig?“ Ich könnte da jetzt mit unserer täglichen Praxis argumentieren, schlage aber stattdessen ein gewagtes Experiment vor: fragt doch mal Eure Kunden, ob sie zum CostPlus Modell produzieren wollen, wenn sie das nächste mal mit MarkUp Vorgaben von sagichjetzteinfachmalbeispielweise 13% versuchen, die Prämie für die Preisgarantie gegen Null zu drücken. Aber setzt Euch vorher einen Integralhelm auf und zieht eine Kevlarweste an, denn die Reaktionen werden entsprechend sein. Das machen die nie. Kategorisch nicht. Never. Ever. Und warum? Nicht, weil das im Vertragsrecht so geregelt ist. Sondern weil sie genau wissen, wie wichtig es ist, die Verantwortung für das fertige Werk weder selbst in Händen zu halten, noch sie der Werbeagentur zu überlassen, sondern sie vielmehr uns Werbefilmproduzierenden umzuhängen. Dieses Wissen müsste man ihnen nur regelmäßig und immer wieder in den Arbeitsspeicher laden, indem man darauf verweist, dass es für 10% MarkUp und alles was sich dem nähert eben nur CostPlus gibt, geben KANN. Nicht weil wir den Hals nicht voll bekommen können, sondern weil die Übernahme dieses Risikos eben angemessen bepreist sein muß, damit sie aus Business Sicht verantwortbar ist.

Zwar höre ich noch meinen alten Producer-Yoda Glenn B. stolz sagen: „Wir sind Filmhersteller, keine Filmteile-Hersteller“. Aber im ernst: wenn das in absehbarer Zukunft keiner mehr angemessen bezahlt, dann sollten wir vielleicht alle kollektiv darüber nachdenken, ob wir nicht lieber auf diesen Stolz verzichten und zukünftig zum CostPlus Modell der Serviceproduktionen, der Filmteile-Hersteller, antreten.

Gatekeeper ohne Gates

Mit einem befreundeten Musikproduzenten habe ich neulich über suno.ai gesprochen, ein Tool, das auf spektakuläre Weise aus Prompts Musik mit Text macht oder deine selbstgeschriebenen Texte vertont. Probiert das unbedingt aus, kleiner Tipp: „90ies hair metal power ballad“ geht immer.

Das Gespräch endete wie eigentlich jedes Mal: Mein Freund fand, die erzeugte Musik sei noch relativ generisch, und das läge ja wohl daran, dass es viel einfacher wäre, mit AI Filme zu machen, da ginge das ja bereits. Worauf ich wie jedes Mal antwortete, das sage er immer, und das läge schlicht daran, dass er sich mit Musik besser auskennte, und ich mich mit Filmen: Aus unserer jeweiligen Profiperspektive sähen wir in unserer jeweiligen Disziplin noch die Defizite von AI; in den Nachbardisziplinen aber schon nicht mehr so richtig.

Was wird hier eigentlich verhandelt, und warum führe ich mit vielen Profis ähnliche Gespräche? Mein Verdacht: Hier geht es um unsere eingebildeten oder realen Fähigkeiten als Distinktions-Profis. Wir halten uns für diejenigen, die wissen, wie state of the art Bewegtbildproduktion geht, und wir rufen um so lauter DAS IST NICHT GUT (GENUG) je mehr wir sehen, wie das aufholt und immer besser wird. Teil unseres Tagesgeschäfts ist es ja auch immer wieder, uns als Gatekeeper zu betätigen: unseren Beurteilungsvorsprung zu verteidigen, indem wir sagen was gut ist und was nicht und indem wir uns als diejenigen anbieten, die über den heißesten State Of The Art Scheiß verfügen, gebieten, ihn anbieten können. Und nichts macht einem Gatekeeper mehr Feuer unter dem Hintern als wenn er etwas aus der Ferne herangalloppieren sieht, das potenziell jede/n da draußen zu einem Profi machen könnte in unserem ureigensten Home Turf, wenn er sieht, dass sich um ihn herum die Mauern auflösen und es vielleicht bald gar kein Gate mehr zu keepen gibt.

Beim Angriff von Social Media auf unsere Budgets konnten wir uns zum Troste immer noch sagen: „Ha, die schmarotzen doch an den von uns mitdefinierten visuellen, erzähltechnischen etc. Standards; und wenn sie so gut werden wollen wie wir, dann müssen sie nach unseren Regeln antreten, und da sind wir halt besser, harr-harr!“. Egal ob das stimmt oder nicht, und egal ob das im SoMe Kosmos jemanden interessiert (zweimal nein, übrigens), für einen Gatekeeper ist das ein irgendwie tröstlicher Gedanke. 

Aber wenn sich die AI Tools so weiter entwickeln, wie sich das abzeichnet, dann passiert da weit mehr, als daß irgendwelche SoMe Creator mit Selfies eigenen Content erzeugen und Zuschauer-Aufmerksamkeit und Kundenbudgets abgreifen; dann kann bald jede/r mit 10 Euro im Monat für ein Dischord Abo Bewegtblid produzieren, das auf unserem Niveau mitspielt. 

DARUM geht es in all diesen Gesprächen.

Oder?

Hervorgehoben

Wenn nun aber die Roboter sehr nett wären, während sie die Welt übernehmen?

Das hat sich Wired gefragt neulich, um mal einen anderen Blick auf die immer rasanter erreichten AI-Meilensteine auszuprobieren als z.B. Panik oder Kulturpessimismus. Ja, schon wieder AI, ich weiß. Aber die anderen interessanten Sachen hab ich doch alle schon weggebloggt! Oder nicht? Alternativ-Vorschläge sind natürlich herzlich willkommen. 

Diesen anderen Blick würde ich mir gerne ausborgen und ein paar Producer-Wünsche formulieren an unsere neuen AI Overlords, die schon fleißig dabei sind, unser aller Werbefilmbusiness umzukrempeln. Das gilt zwar für jede Art Business, wie ihr beispielsweise in der „2023 Expert Survey of Progress in AI“ nachlesen könnt. Aber „The future is already here, it’s just unevenly distributed”, hat William Gibson schlauerweise mal gesagt und ich glaube, daß wir Werbefilmhasen uns darauf einstellen sollten, noch vor vielen anderen eine übergroße Portion Future abzubekommen. Early adopters, early targets, wie man’s nimmt. Dear AI Overlords, hier also schonmal meine ersten, bescheidenen Wünsche:

Schluß mit der Unsicherheit! Gebt uns rechtssichere Tools, sonst können wir sie nicht benutzen. Gebt schon beim Training Eurer Tools keinen Anlass für Beschwerden. Sonst sind wir am Ende wieder auf GETTY und ADOBE angewiesen, die beide bereits jetzt rechtssichere generative AI anbieten inklusive Haftpflicht-Coverage gegen Copyright-Klagen. Wer will schon allein auf GETTY & ADOBE angewiesen sein? 

Make A Difference! Gebt uns neue Tools und Workflows, die einen solchen Unterschied machen, daß sie neuen Talenten eine Chance bieten, sich in diesem unserem Markt zu positionieren und zu etablieren. So wie das in den 90ern Email, Excel, Mobiltelefone und Laptops ermöglicht haben. Oder in den 00ern die RED Kamera One Man Shows möglich gemacht hat, die auf einmal mit ihrem eigenen Profi Tool antreten konnten.

Mehr für alle! Laßt nicht zu, daß die Marktdynamik alles an Mehrwert zu den Kunden rüberschaufelt, was wir mit Eurer Hilfe werden erzeugen können. Ein wenig davon möchten wir gern abhaben, ob in Form von weniger Arbeit für dasselbe Ergebnis, oder in Form von viel mehr Asche für ein bißchen mehr und andere Arbeit, das soll mir ganz egal sein. Ich weiß, daß ihr nicht zu hundert Prozent dafür verantwortlich seid, wem die Tools nutzen, die ihr baut – wer ist das schon – aber nur so für den Hinterkopf, vielleicht machts ja doch einen Unterschied, wenn ihr mehr an uns denkt, die wir sie benutzen wollen sollen.

Smarter Stuff statt More of The Same Stuff! Laßt es bitte nicht einreißen, daß einfach mehr von allem in die eh schon knirschenden und überkomplexen Strukturen reingepreßt wird, ohne daß irgendwer einen Cent mehr verdient – außer Euch, natürlich. Und außer den Kunden, die signifikant mehr Leistung für 20% webniger Budget abgreifen werden wollen. Ich weiß ja, dear Overlords, daß wir kleinen Konkurrenzfrettchen da unseren Anteil dran haben, daß das immer & immer wieder passiert, wir, die wir immer nur danach schielen, wer uns auf den Fersen ist getreu dem Motto „Du mußt nicht schneller sein als der Bär, der dich verfolgt; du musst nur schneller sein als die anderen“. Auch hier ist das natürlich auch eine Frage des gesamten Ökosystems, in dem wir alle uns bewegen und in dem wir alle Verantwortung tragen, aber.

Jetzt Neu! Können wir bitte gemeinsam im Blick behalten, daß wir nicht nur alten Wein in neuen Schläuchen bekommen, halt Werbefilm wie immer, aber jetzt mit AI gemacht? Daß stattdessen auch ein paar neue Formate entstehen und neue Player mit diesen neuen Formaten groß und toll werden? Da geht doch was!

Bonus-Wunsch: Ich kann das ganze Virtual Production Zeugs schon nicht mehr sehen. Das könnt ihr besser! REBEL MOON zum Beispiel sah wirklich schon sooooo oldschoolmässig aus, ich mußte regelmäßig vorspulen oder skippen oder wie das auf Netflix heißt. Helft doch bitte dem Herrn Snyder bei seinem nächsten Versuch, uralte Mythen, mittelalte SciFi Filme, Fascho-Bösewichter und Darsteller mit viel zu weißen Zähnen neu anzurühren.

Das war’s für heute erstmal, danke im Voraus, und bitte immer schön nett bleiben beim Weltherrschaft übernehmen, versprochen?

Cartoon Physics

Da hat grade ein Regisseur einen Cosmetics Film mit Hilfe einer AI „nachgedreht“, den er vor einem Jahr mit 30 Mann Team und jeder Menge Realdrehaufwand hergestellt hat. Netterweise hat er an die AI-Version eine Side-By-Side Comparison angehängt vom Original und von der AI Version.

Man kann da jetzt wieder mit dem Profi-Auge draufschauen und konstatieren, dass ja das Original total super individuell und kreativ sei, und dass die AI Version dagegen total generisch sei und ihr die letzten 5% an Rafinesse und Human Touch fehlten, die das Original so fantastisch machen. Das ist das, was verlässlich jedes Mal passiert, wenn ich mit anderen Branchenprofis das Thema diskutiere.

Das kann man noch 100 mal machen, so wie man auch gesagt hat „Digital drehen? Aber nie im Leben für Beauty Filme“. Aber wie oft noch?

Man kann das aber auch abkürzen und sich nur mal so probeweise mit folgendem Gedanken anfreunden:

Generative AI ist so weit. Die kann immer mehr insbesondere von dem generischen Bewegtbildkrempel umsetzen, der 95% dessen ausmacht, was da draußen noch immer mit riesigem Aufwand in die Welt gesetzt wird.

Und, daraus abgeleitet: Der immer kleiner werdende Unterschied zwischen Realdreh und AI Film interessiert mit Ausnahme von uns Branchenprofis wahrscheinlich immer weniger Konsumenten, und das sind diejenigen, für die das produziert wird. Das ist weder Zynismus nach Konsumentenverachtung, das ist eine sich abzeichnende Realität.

Was genau können wir als Producer nochmal? Eigentlich nur zweierlei: Wir können die Kreativen finden, die perfekt eine Idee, ein Skript zum Leben erwecken werden. Und wir beherrschen die Workflows, mit deren Hilfe diese Regie dann aus einem Skript und einem Budget einen erfolgreichen Film macht. Eine dieser beiden Kernkompetenzen scheint mir grade massiv im Umbruch zu sein.

Ihr kennt sicher den visuellen Standard-Witz aus diversen Looney Tunes Cartoons: Wile E. Coyote rast über die Klippe hinaus und rennt noch ein paar Meter weiter in der Luft über einen tiefen tiefen Abgrund, als wäre die Klippe noch da – erst als er sieht, dass er mitten im Nichts schwebt, stürzt er ab. Wenn ich jetzt abschweifen wollte, würde ich einen kurzen Exkurs über das hochinteressante Feld der Cartoon Physics einbauen (Law 1: „Any body suspended in space will remain suspended in space until made aware of its situation.“ etc.)

Das sollten wir aber in der Welt der Commercial Production Physics tunlichst vermeiden: daß wir einfach immer weitermachen als wäre nichts, während unter uns unsere Workflows wegbröseln und wir merken es erst, wenn wir schon mitten in der Luft schweben.

Hervorgehoben

AI Director im Interview: Martin Haerlin

Vor Kurzem noch habe ich darüber halluziniert gebloggt, daß in Zukunft immer mehr Filme von Centauren gemacht werden, wie sie beim Schach heißen: von Kombinationen aus Menschen und AIs. Und dann finde ich doch tatsächlich einen solchen Centaur in meinen Feeds: Martin Haerlin, Regisseur seines Zeichens, der seit einiger Zeit tolle AI Filme und Werbung macht. Den hab ich ruck-zuck gleich mal interviewt für Euch:

SP: Martin, du kommst aus dem klassischen Werbefilm als Regisseur. Was hat dich bewogen, mit AI loszulegen und die Filme zu machen, die du bisher gemacht hast?

MH: Also die wichtigste Zutat um bei KI eingestiegen zu sein dieses Jahr ist, dass man in der Werbung arbeitet und Anfang des Jahres nichts zu tun hatte. Ich habe früher mal programmiert und habe mich wieder darauf zurück besonnen: Ich hab angefangen zu programmieren. In Python, aber auf ’nem Low Level; Habe auch angefangen mich in Machine Learning reinzubasteln, kleine Kurse angeguckt und dann stieß ich auf Runway, diese Plattform die ja Machine Learning basiert ist, und wo du Videos generieren kannst. Damals war nur die GEN 1 verfügbar, wo du Videos re-stylen kannst. Ich glaube, dass mir mein Programmier-Monat am Jahresanfang die Angst genommen hat, mich damit auseinanderzusetzen.  Wäre ich jetzt im Werbesaft gestanden und hätte rund um die Uhr gedreht, dann hätte ich mir die Video KI gar nicht angeschaut.

Und ich konnte plötzlich meine eigenen kleinen Geschichten erzählen, ich musste noch nicht mal nach draußen! Es war einfach fantastisch, und dann kam in Juni GEN 2, wo man Text eingab, und dann ein Video entstand, wie bei Midjourney mit Stills ging das jetzt plötzlich mit Bewegtbild. Dann habe ich da wöchentlich einen Film gemacht, aber auch Stunden am Tag am Rechner verbracht.

SP: Kannst Du beschreiben, wie sich deine Rolle verschoben hat im Vergleich zu einer klassischen Filmproduktion? Hast du ja schon getan, du sagst „du und dein Rechner, das war’s“, oder?

MH: Es ist es ist deutlich weniger glamourös; man sitzt bucklig vorm Rechner und bastelt vor sich hin. Als ich angefangen habe im April, da haben ganz viele Leute Runway schon benutzt, aber es waren eher so die Computer Geeks, und die haben dann die zehn schönsten KI generierten Explosionen releaset.  Das hatte für mich aber erstmal keinen Use Case; es gab kaum jemanden, der Storytelling macht und KI benutzt. Und deswegen konnte ich mit meinen Filmen eine Leerstelle ausfüllen.

Mit anderen Worten: es ist irre wichtig dass man Storytelling kann, sei es als Werbe-Regisseur oder als Spielfilmregisseur, oder als Schriftsteller, und das dann kombiniert mit einem oder mehreren KI-Tools.

SP: Wie wir sehr fehlt dir der Input der anderen Department also Storyboarder, Production Designer, Kamera und so weiter?     

MH: Der Input der klassischen Departments funktioniert im Moment noch nicht in der KI-Welt. Man kann nicht sagen „Ich möchte genau so ein Wohnzimmer“, „Ich möchte genau so ein Licht“ „Ich möchte genau so eine Aktion“.

Sämtliche KI-Plattformen quatschen mit rein und machen ihr Zeug damit. Das heißt, du triffst immer wieder auf Begrenzungen, wo du dich drumrum arbeiten musst. Was aber wichtig ist, ist der Input anderer KI Leute. Ich bin überrascht wie freundlich und unterstützend die KI Community ist vor allem auf Twitter. Ich hab wieder unheimlich viel Input, aber von anderen Leuten. Welche Kamerabewegungen gehen; welche Prompts funktionieren gut; welche schlecht; was kann man ohne viel Aufwand mal eben generieren und was braucht ewig. Das heißt, der Austausch hat sich nur verschoben.

SP: Sind das Leute die wie du einen Regie-Background haben, oder ist das deutlich bunter?

MH: Ich bin einer der wenigen, die da wirklich mit seinem Klarnamen herumhantiert. Die meisten haben irgendwelche Avatare und dementsprechende Namen, aber ich glaube, dass viele aus dem Filmbereich kommen. Art Direktoren, Regisseure, einer kommt von der BBC – schreibt er – ich finde man merkt relativ schnell wo sie herkommen, wenn man deren Arbeiten sieht. Leute die wirklich Storytelling machen, die müssen aus dem Bereich sein. Die setzen sich mit Bildern auseinander. Es gibt aber auch ganz viele die machen Tests, die zeigen dann den Fallschirmsprung, den sie in KI gerechnet haben; und das hat ja auch seine Berechtigung. Ich merke: Soundso könnte man etwas erzählen. Die, die mich faszinieren, kommen wahrscheinlich aus einem ähnlichen Bereich wie wir.

SP: Die Arbeitsteiligkeit ist ja trotzdem komplett verschwunden, wenn du als Chimäre mit deinem KI Tool zusammenarbeitest. Welche der klassischen Rollen gibt’s da zukünftig für dich eigentlich? Gibt es eine Rolle für einen Producer in diesem Setup?

MH: Was ich mach ist wirklich nur auf sehr kleinem Level. Man könnte deutlich bessere KI Filme machen, wenn man im Team arbeitet. Wenn man einen Producer hat, der das kalkuliert. Wenn man einen Kameramann hat, mit dem man was zusammen dreht & das dann restylet; und dann aber auch noch in einem Text to Video Tool die Establisher macht. Eigentlich geht es mir darum zu zeigen, „Hey, KI kann ’ne Menge; Aber bitte nicht ab jetzt alle Spots in KI generieren“.

KI ist ein mächtiges Tool, mit dem man prävisualisieren kann, aber in Zukunft auch ganze Shots ersetzen kann, wofür früher die Kohle oder die Zeit nicht gereicht hat. Du kannst deine Filme viel größer machen; emotionaler, intensiver. Eigentlich gehts mir nicht darum, Departments zu ersetzen, sondern Enhancement durch das KI-Tool zu bekommen.

SP: Gestern bin ich über einen AI Film von Cadmo Quintero gestolpert, der hat klassische Departments mit reingenommen: Sören Görth hat geschnitten, DIE ZWEI haben Musik gemacht, und man merkt sofort den Input der anderen Departments. Das Heavy Lifting übernehmen in diesem Film geradezu der Schnitt und die Musik. Das macht einen Riesenunterschied.

MH: Hab ich gesehen, finde ich richtig toll. Wir haben unterschiedliche Herangehensweisen glaube ich – mir geht es erstmal darum zu zeigen, du kannst es als One-Man-Show schaffen. Ich mach absichtlich Low Tech. Ich hab in meinem letzten Re-Styling-Film absichtlich ein  Stöckchen benutzt, ich hätte auch eine Pistole nehmen können, ich habe aber extra ein Stöckchen genommen und das zu einer Pistole re-stylen lassen, ich will, dass das alles handgemacht aussieht.

Wenn da noch mehr Regie- oder Kamera Kolleginnen einsteigen würden… wir haben alle so einen Vorsprung was Filmsprache angeht, das beeinflusst den Output. Wir wissen wie wichtig Sounddesign ist, wie wichtig ’ne Close und ’ne Weite Einstellung im Wechsel sind, wir könnten richtig tolle KI Filme machen, es benutzen aber noch extrem wenige. Das ist so ein bisschen wie „Don’t Look Up“: Es WIRD kommen. Und man MUSS sich damit auseinandersetzen. Zu sagen „Ich mach’s nicht“, das ist echt gefährlich.

SP: Deinen LowFi Ansatz finde ich persönlich wahnsinnig interessant. Das was Cadmo gemacht hat, ist für mich so das Naheliegendste; das ist so ein Post Production SciFi Future Dystopia Sujet Ding, da werden die Leute vielleicht sagen „Naja, das hätte man früher in 3D gemacht oder in der Unreal Engine, jetzt macht’s halt ’ne KI, wo ist der große Unterschied?“ Aber bei dem, was du machst – das machst du nicht in UnrealEngine. Der Ansatz ist ein ganz anderer. Den finde ich persönlich total spannend weil es einem dieses Gefühl vermittelt „Geil! Let‘s Go! Ich brauch das alles nicht, film film film!“

MH: Genau! Diese Attitude möchte ich rüberbringen. Ich will es nicht als NOCH schwieriger hinstellen. Nicht: „Oha, wenn ihr KI macht, Freunde, daaaaannn langsam…“ Ich veröffentliche auch immer meine Herangehensweise.

SP: Ich habe vor allem Angst davor, dass die Industrie das vereinnahmt und sagt „uh, oh, da brauchen wir jetzt aber erstmal ein halbes Jahr“, und dann ist das wieder so wie beim Switch von Filmmaterial zu digital: du sagst “Geil, ich  muss diese blöden Filmrollen nicht mehr rumtragen und entwickeln und abtasten, Yippie!“ aber dann kommt gleich: du brauchst einen DIT; und du drehst 10x so viel Material; hast doppelt soviel Edit-Zeit etc. Da hat sich der Alte Prozeß gleich wieder so breit gemacht in dem neuen Medium, dass der Unterschied zwischen Alt und Neu sofort wieder verschwunden ist. Also die ganzen Vorteile. Darum finde ich deinen LowFi Ansatz so toll: Das macht Spaß, und das merkt man.

MH: Der Spaß ist dabei wahnsinnig wichtig, dass man andere inspiriert und ansteckt. Dass sich die Industrie da sofort wieder breit macht: Ich hoffe dass das nicht passiert.

Man muss im Moment mit KI noch sehr vorsichtig sein weil es den gesamten Prozeß der Werbung auf den Kopf stellt. Während es bei Werbung immer um Kontrolle ging – Fitting, Abnahme wie das Essen aussieht… Wir versuchen, den Zufall möglichst auszuschließen denn der Kunde hat all sein Geld zusammengekratzt und da soll dann die Schokolade fließen und die Butter schmelzen, und da darf nix schiefgehen. Und das geht mit KI nicht mehr. KI wird das auf den Kopf stellen. Wir müssen uns da mit dem Zufall, der Spontaneität arrangieren. Und ich glaube, dass sich dieser Prozeß in der Werbung durchsetzen wird. Parallel zur üblichen Kontrolle. Sone Marke wie Dr. Oetker wird nicht so schnell auf KI aufspringen; aber eine Lifestyle Marke wie H&M oder Zalando. Wenn ich sehe wie ein Model in Pink gekleidet an einer Tischtennisplatte vor einer grauen Betonwand vorbeiläuft, dann ist das ein Bild, was ich bald in KI umsetzen kann. Und dann kriege ich vielleicht eine Person, wie sie vielleicht nicht ganz im Zalando Katalog zu finden ist; aber sie hat trotzdem was Interessantes. Es wird ein neuer Prozeß entstehen, wo man Spontaneität wieder zulässt und wo man zu den Anfängen der Werbung zurückgeht, wo man einen Künstler engagiert hat und gesagt hat: „Mach uns mal in deinem Style etwas für meine Marke.“ Und da ist dann jetzt eben der KI Künstler, und dem sagt man “Mach doch mal mit deiner KI einen lustigen Film für XY“ Und dann machst du was und zeigst es denen und das ist eine total schöne Vorstellung und Zukunft, auf die ich mich freuen würde.

SP: Bin ich total bei dir. Hast du schon ein kommerzielles Projekt mit KI umgesetzt?

MH: Es kommen wahnsinnig viele Anfragen. Es ist im Moment noch schwierig, weil die immer noch die volle Kontrolle wollen. Ich hatte eine Anfrage einer Versicherung aus USA, die KI sollte da eine Traumsequenz generieren von einem PIXAR-Mädchen, das Fußball spielt. Da habe ich gesagt, den eigentlichen Film muss man normal drehen, aber von der Animation könnte man große Teile wenn nicht alles in KI machen. Da würde ich mich dann hinsetzen und das VOR dem PPM so weit vorbereiten wie möglich, damit man dann nicht erst nachher merkt, dass man die Szene wie der Fuß den Ball kickt gar nicht hinbekommt in KI, was tatsächlich nicht möglich ist. Aktionen sind noch wahnsinnig schwierig.

Ich spreche jetzt beim ADC im November; bin mit einer Argentinischen Agentur am diskutieren. Deutsche Agenturen haben sich wenige gemeldet bisher. Mit Wiedemann & Berg habe ich gesprochen.

SP: Ich beobachte die Reaktionen, da gibt es ein breites Spektrum. Andre Aimaq hat da beispielsweise auf LinkedIn bedauert, dass die Agenturen nicht streiken wie die SAG Darsteller und als Forderung formuliert, dass AI Kreationen als solche gekennzeichnet werden müssten; und am  anderen Ende des Spektrums sind dann Menschen wie du oder der lustige John Finger, der auch dieses Let’s-go-for-it Ding laufen hat – wie siehst du diese Diskussion?

MH: Schwierige Diskussion. Seit Jahrzehnten werden in Hollywood Menschen über VFX dupliziert. In Mittelerde sind nicht 40.000 Orks gerannt, und der Film ist 25 Jahre alt. Es gab da schon immer Tricks. Die SAG Geschichte – so wie ich sie verstehe – ist, dass es darum geht, dass Komparsen von KI ersetzt werden.

Ich hab neulich mit einem Synchronsprecher dieselbe Diskussion geführt. Meine Kinder haben mal Synchronsprecher 2 Sätze für Netflix gesprochen. Sowas wird ziemlich sicher von KI ersetzt werden. Da muss ich aber auch sagen: Da geht kein Kunstform flöten. Das waren Teenager, keine Synchronsprecher auf einem hohen Level. Die werden in absehbarer Zeit nicht ersetzt werden. Die ganzen Nuancierungen kannst du so nicht Prompten. Das gleiche gilt für Schauspielerei. Wenn Komparserie verschwindet, verschwindet auch da keine Kunstform, sondern ein total netter Nebenjob.

Menschen können nur von Menschen gespielt werden, wenn sie eine emotionale Rolle haben, aber wenn man 20.000 Menschen zeigen will, die mit Schwertern herumrennen, dann kann man natürlich KI benutzen. Da verschwinden Jobs, die vor 120 Jahren auch im Handwerk verschwunden sind.

Du kannst auch jetzt einen handgewebtem Teppich aus der Manufaktur haben, aber auch einen Teppich von IKEA.

Und dasselbe wird es auch bei uns geben: Handgefertigte Filme von toller Crew gemacht; oder maschinengemachte Filme und Kreation. Das wird in diese zwei Kategorien zerfallen.

SP: Hast du Empfehlungen wo man dranbleiben sollte?

MH: Jon Finger ist toll.  Nikolas Neubert hat einen tollen Trailer gemacht, Christian Fleischer hat einen der ersten Gen2 Filme gemacht: THE GREAT CATSPY. Als ich das gesehen habe war ich so begeistert. Auf Twitter gibt es eine tolle Community, unbedingt einen Account holen. Aber, Rückfrage, wie siehst du das denn mit KI & Jobs ersetzen?

SP: Der kommerzielle Druck, das umzusetzen, was möglich ist, ist so groß, dass du dich nur entscheiden kannst, mitzumachen oder den Laden abzusperren. Wir als Werbefilmproduzenten sind überhaupt nicht in der Position, da Forderungen aufzustellen. Das klingt vielelicht defätistisch, aber wir drehen unsere Werbefilme auch im  Ostblock, weil da der Oberbeleuchter nur die Hälfte kostet. Das ist so. Das kann man Scheiße finden, aber man kann sich nur entscheiden, da mitzuspielen oder raus zu sein. Das muss man sich natürlich immer wieder neu fragen: „Mach ich DABEI dann auch noch mit, oder lasse ich’s dann lieber sein?“

Ich glaube, das wird sich verschieben, das Nicht Ersetzbare wird immer weniger werden – was muss man mit echten Menschen machen? Immer weniger. Das frisst sich ja schon von unten in unsere Departments rein. Stock Footage, Moodscouts, Storyboards, in die Kreation selbst – JVM hat grade eine KI Hyundai Kampagne gemacht. Das kommt aus allen Richtungen auf uns zu. Und die wirtschaftlichen Incentives, das zu machen, sind so stark, wie wir’s beim Switch zu digitalem Drehen erlebt haben, und das in Potenz. Da geht’s nicht darum, dass man jetzt 1.500 Euro für eine Abtastung spart. Da geht’s darum, dass man bestimmte Filme so macht, so wie Martin Haerlin sie jetzt schon macht, nämlich als One-Man-Show in einer Woche am Rechner. Mit einer guten Idee und einer guten KI und Feierabend. Da brauchste nicht nach Kapstadt weil das Wetter da schön ist im Winter.

MH: Was jetzt easy geht ist: du kannst jetzt einem Weingut einen 30-Sekünder über Trauben im Herbst machen. Das würde dich eine Stunde kosten, und die können das auf ihre Social Media Seite stellen. Man kann also jetzt auch Filme machen für alle die, die sich bisher keine Filme leisten konnten.

SP: Ich glaube diese positive Vision gibst da auch, dass sich da ganz viele neue Arten ergeben werden, mit denen man sein Geld verdienen kann. Es wird Zugang geben für Leute, die vorher keinen Zugang hatten. Die Location Scout geworden sind, obwohl sie vielleicht ein besseres Auge haben als mancher Kameramann. Da werden die Karten neu gemischt. Und es werden Jobs entstehen, die wir uns noch nicht vorstellen können, genau wie sich die Pferdekutscher den Tankwart noch nicht vorstellen konnten.

MH: Ich bin nach wie vor verblüfft wie klein das Interesse aus Deutschland ist.

SP: Ich hab’s am eigenen Leib erfahren. Ich hab THE GERAT CASTPY gesehen und gedacht „Also jetzt schlägst dreizehn“. Das habe ich allen geschickt, die mir einfielen und hab geschrieben: „Ihr MÜSST EUCH DAS ANGUCKEN. So in Stresser-Großbuchstaben. Das wird sowas von unser aller Business umschmeißen…“ Ich habe eine einzige Reaktion bekommen von einem anderen Producer, der schrieb: „Naja, da musste ja noch 150.000 reinstecken damit das wirklich gut aussieht, das wird niemals was werden“.

MH: Das ist so wie man immer dachte dass ein Computer so groß sein muss wie ein Wohnwagen.

SP: Ja, die Beharrungskräfte, ich weiß nicht ob aus Angst oder aus Betriebsblindheit, die sind da doch sehr stark. Wo ist eigentlich die erste AI Filmproduktion? Naja, ich hab sie ja auch noch nicht aufgemacht… Aber DU machst das! Darum Kudos nochmal dafür, das macht viel Spaß, ich bleib da dran. Danke nochmal für das Gespräch!

MH: Danke Dir!

Do Producers dream of AI enabled films?

Consumer können mehr und mehr selbst zu Producern werden, wie ich’s neulich schon bebloggt hatte. Sie müssen dafür nicht gleich ganze Filme from scratch produzieren, sie können sich zukünftig auch anhand bestehender Filme aussuchen, wie, auf welchem Level und in welchem Department sie gern in einem Film eingreifen und ihn auf diese Weise neu oder mitproduzieren wollen. Sie können sich gewissermassen so Film School mässig von der Seite des fertigen Films her an das Produzieren heranrobben.

Ich zum Beispiel verabscheue ja den seifigen und einschläfernden Vangelis-Soundtrack zu BLADE RUNNER. Das Netz ist voll von sehr emotional geführten Debatten dazu – mir versaut er tatsächlich den kompletten Film.

Die Producer’s Notes, die Ridley Scott nach seiner 3. Schnittfassung zu lesen bekam, fragten unter anderem nach „more tits“, und schon im ersten Satz: „Where is the Vangelis Music“? Die haben sie leider am Ende bekommen. Wenn ich jetzt aber in naher Zukunft Ridley Scott rächen und den Soundtrack einfach austauschen könnte: „Hey AI, unterlege mir bitte BLADE RUNNER mit einem Soundtrack im Stil der Talking Heads“? 

Zunächst hab ich ja gedacht, daß uns demnächst AI mit Reglern beim Produzieren hilft, also etwa Midjourney mit speziellen Reglern, an denen ich Brennweite, Einstellungsgröße und soweiter finetunen kann. Aber vielleicht ist es genau so spannend, wenn es analog zum Sound und Farb – Reglern an der Glotze ein paar zusätzliche AI Regler gäbe wie den „Wes-Anderson-Style-Regler“; den „Hauptdarsteller“- Regler; den „Synchronsprache“-Regler?

Das passiert ja eh bereits massenhaft, die Travestie bestehender Filme ist ein riesiges Sub-Genre des generativen AI Outputs. DUNE im Stil von Jodorovsky (der tatsächlich mal einen Anlauf dazu unternommen hatte). ALIEN im Stil von Stanley Kubrick. Und JEDER DENKBARE FILMTITEL im Stil von Wes Anderson, natürlich. Das ist beileibe nicht ohne Vorbilder aus der Vor-AI-Zeit: Der Kern des Erfolgs von NETFLIX beruht auf NETFLIX‘ Fähigkeit, Travestien und Genre-Remixes nach Uservorlieben herzustellen: „Die User gucken am liebsten Politthriller und Kevin Spacey? Dann produzieren wir ihnen einen Politthriller mit Kevin Spacey!“ Aber AI ist jetzt auf dem Weg, mehr und mehr dieser eigentlich originären Producer-Tools an die Consumer selbst auszulagern. 

Schauen wir uns das auf Basis bereits existierender Filme an. Was daran macht AI auf einmal „anfassbar“ für uns Consumer? Nehmt mir für einen Moment bitte einfach ohne weitere Link-Belege ab, daß das alles bereits erkennbar möglich ist mit AI Consumer Tools, und daß da nur noch jemand rasch ein Frontend mit ein paar Reglern entwickeln müßte bitte, an dem man all diese Faktoren gleichzeitig tweaken kann, und die AI spuckt ruckzuck nach zwei Stunden Rechenzeit einen neuen Film aus:

_Darstellerauswahl: Niemand braucht mehr MoCap, das geht auf Basis von bestehendem Video Material. Also Hauptrollen austauschen. Nebenrollen austauschen. Alle Darsteller sollen Männer sein. Frauen. Frösche.

_Musik: Easy. Ging ja schon vorher, aber jetzt trennt einem die AI auf Wunsch die einzelnen Instrumental-Spuren; das Voice Over von der Musik und den Sound FX. Also anderer Komponist; nur Instrumentals; Orchesterversion statt Surfgitarre… Das kommt als erster AI Regler sobald die Rechtefragen geklärt sind, Wetten werden noch angenommen.

_Sprache & Sprecher. Gedubbt haben die Produzenten schon früher, aber jetzt können wir’s selbst. Und die AI trennt nicht nur die Spuren dafür, sie generiert nicht nur neue Stimmen, sie passt auch die Mimik & Mundbewegungen der Darsteller an die gesprochen Sprache an. Also Saturday Night Fever mit meiner Stimme für John Travolta, und alle anderen Stimmen von Olivia Newton John.

_Art Department: Eigentlich einfacher als MoCap. Also alle Möbel sollen bitte Art Deco sein. Philipp Starck Design. Giger.

_Styling: Alle tragen Kaftane. Oder nichts. Taucheranzüge. 20er Jahre Klamotte. 

_Location: alle Strassenszenen & Häuser Exteriors Hong Kong statt Detroit. Der Wald wie in Neuseeland. Dänemark. Ägypten.

_Framing: AutoFill machts möglich, ich habe schon völlig sinnbefreite erste AI Versionen von BladeRunner im Hochformat gesehen, aber hier geht’s ja nicht um meinen eigenen Geschmack, also bitte 9:16 für alle die das interessiert, was ich lange Zeit nicht glauben konnte, scheint aber so’n heißes Ding zu sein mit dem senkrecht gucken.

_VFX: Mehr so STUDIO GHIBLI, weniger so AVENGERS… 

_Und natürlich alle Kombinationen aus den obigen Beispielen und diverse andere Details, die Leuten wichtig sind. 

Ein Beispiel gefällig? Bittesehr, hier kommen die

AI Producer’s notes von Stephan Pauly zu Ridley Scott‘s BLADE RUNNER 

Schon ganz gut, aber ich hätte da gern noch folgende Änderungen:

Hauptrolle: vielleicht mal mit Christopher Walken aus ca. 1985 besetzen (weil Harrison Ford einfach nicht gleichzeitig Indiana Jones, Han Solo und Deckard sein kann); Bösewicht: Clark Gable statt Rutger Hauer (weil Rutger Hauer eh super ist, aber ich hab schon lange keinen guten Film mehr mit Clark Gable gesehen. Wie, schon tot? Das ist doch der AI egal!) 

Aspect Ratio: Finger weg, die bleibt natürlich in 2.39:1 Cinemascope, ihr Banausen!

Art Department: alle visuellen JAPAN Referenzen in VIETNAM Referenzen umwandeln (weil der JAPAN Takeover der Welt eindeutig eine 80er Jahre Idee ist, die nie so richtig eingetreten ist, und ich einen VIETNAM – Takeover der Welt interessanter fände) 

Autos, Flugobjekte und Gebäude bitte von LUIGI COLANI designen lassen (schlicht weil’s lustig wär)

Sprache bitte mal in Südafrikanischem Englisch (siehe oben)

Musik bitte wie gesagt von den Talking Heads, gerne im Stil meines Lieblingsalbums „Remain In Light“, aber ohne Vocals.

Im Ernst: All das rauscht doch einem Filmproduzenten täglich durch die Rübe, und nicht „more tits and Vangelis“ – so jedenfalls meine romantische Vorstellung von einem Filmproduzenten, und bald kann er sie es tatsächlich einfach ausprobieren! Der irre Twist ist ab jetzt allerdings, daß das auch für uns Consumer gelten wird. Mal alle technischen und rechtlichen Fragen außen vorgelassen, gibt es einen Markt für solche customizable Filme? Ach, mir doch egal, ich möchte eigentlich nur tagelang mit meinen neuen AI Reglern an BLADE RUNNER rumspielen, aber vielleicht bin ich auch nur ein wenig anders als die anderen kleinen Kinder auf dem Spielplatz.

Welchen Film würdet ihr euch vorknöpfen?

Und an welchen Reglern möchtet ihr gern drehen können?

Wer MACHT einen Werbefilm?

Eine ganz einfache, leicht zu beantwortende Frage, je nachdem, wen man fragt. Der Kreativdirektor, natürlich. Der Produzent? Die Regisseurin selbstverständlich! Aber ich spreche gar nicht von diesen bizarren Credit-Posts auf LinkedIn, Instagram et. al., wo immer mehr Väter des Erfolges zu sehen sind als man kennt, und immer die Hälfte der UmsetzerInnen zu fehlen scheint. Viel interessanter sind da die Verschiebungen, die ich im Prozeß beobachte.

FRÜHER ™, also grob gesprochen noch in den Nuller Jahren, habe ich auch aus den großen Kreativ-Agenturen quasi fertige Filme auf den Tisch bekommen, die wir „nur noch“ drehen mußten: jede Einstellung war gezeichnet und vom Kunden verabschiedet; so weit bereits ausdiskutiert, daß man die Storyboard-Frames als Animatic hintereinander gehängt und mithilfe von MaFo-Tests NOCH endgültiger gegen Kritik und Verbesserungen abgesichert hatte, bevor sie überhaupt an uns Produktionen, an eine Regie rausgegangen sind. Was haben wir gefightet um auch nur EINEN Frame zu addieren, oder gar einen zu verlieren! „Wir drehen die Alternative mal mit, vielleicht können wir sie ja im Schnitt davon überzeugen“, was für ein Kampf, was für ein Krampf!

Das gibt’s ja auch immer noch, und ich bekomme immer einen leichten Anflug von Nostalgie bei solchen Skripten. Dazu gehört aber zugegebenermaßen auch die harte Realität, dass das meist eher die nicht ganz so geilen Filme sind, die so daherkommen. Die Antwort auf meine  Eingangsfrage bei diesem Prozeß ist jedenfalls relativ einfach: den Film hat zu großen Teilen eigentlich schon die Agentur gemacht, und wir durften ihn „nur noch“ umsetzen.

Fast Forward 2023: Ich sehe gefühlt immer häufiger „Filmkonzepte“ aus seriösen Agenturen, die 150 seitige Keynotes sind. Mehr Fragen als Antworten. Kein einziger gescribbelter Frame, Storyboards oder gar Animatics weit & breit nicht in Sicht. Möglicherweise, weil die Agentur bereits alle Energie darauf verwendet hat, die Heilige Asset Liste zu vervollständigen („und dann noch 28x 10Sekunden Cutdowns für Insta; und die Youtube Prerolls nicht vergessen“)? Ist das Faulheit, Zeitmangel, Ratlosigkeit, „Schwächen im Abschluß“, wie das im Fußball heißt? Oder das Prinzip „Death by Zuballern“ – den Kunden mit einer so langen Präse beschießen, daß er nach Seite 100 die Hände hebt und sagt „jajaja, kommt wieder wenn ihr einen Film habt, ich kann nicht mehr“. 

Neiiiin, das ist es natürlich nicht! Ich will lieber an das Gute auch im Kreativen glauben und sage: das ist vielmehr jedes Mal die Chance für eine gute Regisseurin, die selbstverständlich von einer sehr guten Produktion gebackt wird, sich einen wirklich guten Film auszudenken. Denn, zurück zur Ausgangsfrage, wer macht dann den Film? Die, die das können: Regie & Produktion im Rahmen eines von der Agentur freundlicherweise im Vorfeld mit viel Arbeit etablierten Raums von Möglichkeiten.

Da kann, muß also das Machen wieder deutlich auf unsere Seite rüberwandern. Auch wenn uns keiner dafür bezahlt, daß wir uns den kompletten Film inzwischen regelmäßig from scratch selbst ausdenken (dürfen), ist das ja erstmal eine gute Sache, oder nicht?

In comes AI. Wenn das vielgefürchtete Animatic ein Angriff der Kreation auf die Exekution war – „schaut her, der Film ist quasi schon fertig!“, dann kann man mit generativer AI eine entgegengesetzte Bewegung beobachten, eine Art Angriff der Exekution, des Machens, auf die Kreation. „Was, wenn im Hintergrund Supermann durch‘s Bild fliegt und einen rosa Zwerg-Gorilla auf dem Highway absetzt, der mit Bananen um sich wirft?“ FRÜHER ™ konnten Kreative das nur denken & sagen; jetzt können sie das innerhalb von einer Viertelstunde auch schon visualisieren, MACHEN, und direkt den Effekt der bereits umgesetzten Idee ausprobieren. 

Und dann? Wenn das wirklich verkauft ist, braucht es nur noch jemanden, der’s auch nach allen Regeln der Kunst umsetzt, sprich: gut macht. Da hat mir neulich jemand aus einer befreundeten VFX Company etwas zugeworfen im Sinne von: „Goldene Zeiten kommen auf uns zu! Warum? Weil die Agenturen mithilfe der neuen generativen AI Tools den Kunden immer mehr sehr avanciertes, sehr ausgearbeitetes Zeug verkaufen, und anschließend händeringend nach Profis suchen, die das auf einem Profi-Level auch umgesetzt – GEMACHT – bekommen“. 

Yippieh! Oder? Wie auch immer: die Stellen, an denen der Film gemacht wird, und die Sichtweisen darauf – von Producern, von Regisseuren, von Kreativen – sind jedenfalls erneut gehörig in Bewegung geraten, und diese Bewegung wird sich nochmal rasant beschleunigen und verstärken.

AIron Man

Okay, sorry für den mauen Wortwitz, aber ich konnte nicht anders. Just A Rather Very Intelligent System oder kurz JARVIS ist da draußen. Jarvis spricht noch nicht mit uns wie mit Tony Stark, aber das nicht wegen technischer Limitationen, die gibt’s schon gar nicht mehr; sondern wohl nur deswegen, weil wir sonst noch mehr Schiß vor ihm/ihr hätten, als wir es sowieso schon haben.

Vergesst mal Jarvis‘ fancy user interface aus Iron Man, die Grafiken, die immer vor Robert Downey Jr.‘s Gesicht rumschweben, das sind nur so VFX-Platzhalter für „whooo, veeery complicated technology at work“. In Wiklichkeit ist die Idee von Jarvis in Iron Man das Gegenteil dieser Grafiken, Jarvis ist viel simpler und aber gerade deshalb so viel mächtiger. Warum? Jarvis spricht mit Tony Stark, und Jarvis erledigt, worum Tony ihn bittet. Jarvis ist ein Assistent, aber nicht wie Alfred, der Butler, sondern eher wie Siri auf Steroids.

Was müßte denn Jarvis in unserer Welt können, um ein so guter & mächtiger Assistent zu sein? Jarvis müßte mit mir kommunizieren können; und er müßte mit all den anderen Tools da draußen interagieren können, sprich: Schnittstellen haben zum Netz und zu allen anderen Programmen/Interfaces, die es bereits gibt, und die wiederum Schnittstellen in die reale Welt haben: Ich bitte Jarvis um ein Rezept für eine Quiche Lorraine. Jarvis findet ein Rezept, bestellt die Zutaten beim REWE Lieferdienst, und der liefert mir die Zutaten. Aber Jarvis müßte nicht nur mit REWE kommunizieren, sondern mit allem & jedem. Jarvis müßte DAS EINE FRONTEND sein, das ich brauche, um mit jeder Art Software zu interagieren. Und mit einem immer weiter wachsenden Teil der physischen Realität, die sich über diverse Software Interfaces erreichen lässt, ohne daß ich mit diesen Software Interfaces selbst in Berührung komme: Das soll ja mein Assistent Jarvis für mich erledigen.

Alles, was es dafür noch braucht, um Jarvis wahr werden zu lassen, ist (bitte ankreuzen)

  1. ein Multimilliardär-Genie wie *cough* Bill Gates Elon Musk *cough*: Tony Stark, der das entwickelt und finanziert
  2. 20 Jahre Forschung & Entwicklung zu AI
  3. Plugins

Ihr ahnt es, die richtige Antwort ist natürlich „C,“ A & B hamwa schon, und seit kurzem ist auch C am Start, denn ChatGPT4 ermöglicht, tadaa, P-l-u-g-i-n-s.

Und was so harmlos & simpel klingt („Plugins? Kenn ich! Braucht mein Quicktimeplayer um die RED Daten abspielen zu können“) ist ein Riesenschritt, weil das die Kommunikation zwischen ChatGPT4 und anderen Programmen ermöglicht, und zwar auf Initiative und optimiert seitens der anderen Programme selbst.

Achtung, weit hergeholte Vorhersage: Genau wie sich sämtliche Websites nach und nach dahingehend optimiert haben, daß GOOGLE sie findet, werden sich bald sämtliche Programme und Interfaces dahingehend optimieren, daß ChatGPT mit ihnen optimal interagieren kann. Nicht mehr du & ich als User, sondern unser aller Assistent. Und wenn das tatsächlich passiert, dann ist das in Wahrheit der Schritt vom ChatBot zum universalen Interface, von ChatGPT4 zu Jarvis.

Expedia zählt zu den ersten Anbietern dieser Art Plugins: Anstatt sich einen Reiseplan zurechtzulegen, und den dann selber mühselig auf der Oberfläche von Expedia abzuarbeiten, kann ich ChatGPT mit ein paar Sätzen briefen, wie meine Reise aussehen soll, und Jarvis klärt das dann mit Expedia. Inklusive Restaurantreservierung, Flugbuchung, Hotelbuchung etc.

Was bedeutet das im Speziellen für uns Producerhasen?

Eins der großen Themen war ja anfänglich, ob ChatGPT Google überflüssig macht als Gateway zum Netz, als die bessere Suchmaschine. Mit Plugins ist jetzt weit mehr als das passiert: ChatGPT macht mittelfristig alle andere Software nicht überflüssig, aber es wird sich im Alltag als Interface zwischen uns und andere Software schieben und der neue Gatekeeper werden für unseren Umgang mit den Tools auf unseren Rechnern und Telefonen. Damit ist das Supertool am Horizont in Sicht, ein General Interface, das für uns mit allen anderen Tools kommuniziert.

Fun Fact: ADOBE hat grade seine eigene Text-To-Image AI „Firefly“ präsentiert und wird sie als Plugin in Photoshop und Lightroom und auch in diverse Bewegbildtools integrieren. Und so nebenbei Adobes eigenes Stockfoto-Business kannibalisieren (wohl notgedrungen – bevor es andere tun…). Da kann man das Zusammenspiel zwischen AI und einem klassischen Tool wie Photoshop jetzt live innerhalb dieses begrenzten Biotops beobachten: Auch hier wird sich zeigen, wer hier am Ende wessen Plugin ist. Bleibt Photoshop Photoshop mit ein paar AI Erweiterungen, oder transformiert sich das nach und nach in eine Bilder generierende und manipulierende AI, die über alle präzisen Kontrollfunktionen aus Photoshop verfügt, die Midjourney et al. bisher eben noch nicht haben?

Zurück zur Producerrealität. Ich habe Gerüchte gehört über einen Autofilm, der gerade komplett im Rechner entsteht: alle Hintergründe und das Auto selbst werden in Unreal Engine zu einem kompletten Produktfilm zuammengefahren. Hintergründe, Kameramoves etc sind photorealistisch und ergeben einen Film, der zu 100% real aussieht. Noch mit viel Arbeit und Glitches und Problemen und Abstimmungsprozessen etc, sodass die 60 Sekunden Film da noch Monate an Produktionszeit fressen mit hunderten von Mann/Frautagen an Arbeit, Abstimmungsschleifen aus der Hölle etc. Vielleicht sogar sehr viel mehr „Handarbeit“ in Summe – ironischerweise – als wenn man real drehen würde.

ABER. Was wenn das bald state of the art ist (und das ist es, mark my words), und wenn die Diskussionen darum, ob das denn nun schon genauso gut wie real gedreht ist, mal ausdiskutiert sind, wie sie es auch beim Thema „Digitalkameras vs. Film“ irgendwann waren? Ich sage an dem Punkt sind wir schon. Diese ganzen AUDI Filme etwa, ihr wisst schon: Ze future is an attitude und so, die WOLLEN doch so aussehen, als wenn sie aus dem Rechner kämen, die könnten längst komplett aus dem Rechner kommen und niemand würde den Unterschied bemerken, ob nun die Stahl&Glas Wolkenkratzer aus Dubai kommen oder aus der Unreal Engine.

Okay, da sind wir, werdet ihr sagen, aber was kommt dann? Vielleicht das hier, sicherheitshalber noch im Konjunktiv formuliert, damit ich nachher alles als reines Gedankenexperiment abtun kann: 

Was, wenn die Unreal Engine ein Plugin für ChatGPT anböte und ich sagte oder tippte: „Jarvis, sprich doch mal bitte mit der Unreal Engine, ihr kennt euch doch. Ich hätte gern einen 30 Sekunden langen Autofilm, der in der Wüste spielt mit folgendem Auto, hier ist der Link zur Regieinterpretation mit allen Midjourney Prompts, mit denen wir die Bilder erzeugt haben; und hier die CAD Daten vom Auto. Bitte inkludiere folgende Einstellungen: 1-15. Storyboard läßt du dir von MJ malen, ich schau vielleicht vorher mal drüber, oder egal: mach einfach fertig, wenn’s mir nicht gefällt machen wir – also ihr – halt nochmal von vorne. Und dann besorg‘ dir einen Timeslot & Rechenpower bei Baselight und leg mir mal einen Filmkorn-Look darüber. Nur weil ich Bock hab, das mal zu sehen. Oh, und komm‘ mir nicht mit so einem langweiligen U-Crane-Film nach Hause, ich will crazy Transitions, ungesehene Kamerafahrten und einen superedelen High End Look.“ Hach, ich wollte schon immer mal wie ein Agenturkreativer sprechen, vor Jarvis muß ich mich ja nicht schämen für Plattitüdengewitter, ist ja nur Software.

1 Stunde später: „Naa, zu viele Wide Shots, der Kunde braucht noch CloseUps von den folgenden 3 Car Features, mach nochmal. Und vergiß‘ das mit dem Filmkorn-Look aus Baselight, gefällt mir nicht. Sprich mal mit Resolve, ob derdiedas nicht sowas in Richtung Chungking Express Look anbieten kann.“

Und was, wenn unser aller SCOPE Kalkulationsprogramm demnächst ein ChatGPT Plugin anböte, und ich Jarvis zurufen könnte: „Kalkuliere mir doch einen Margarine-Film in Kapstadt, 2 Drehtage, mittleres Preissegment, 5 Happy-Family-Darstellerinnen aus Deutschland wegen deutschem Dialog, Styling & Production Design von vor Ort, aber anspruchsvolle Regie, für die Post nur Schnitt, Grading und 1 Tag Tonmischung, bittesehr“?

Ja, was dann? wie es so schön bei „Peter & Der Wolf“ heißt.

*Danke an Rex Woodbury für die JARVIS Idee & tonnenweise input, abonnieren dringend empfohlen!