Sky Captain and The World Of Tomorrow

Anfang der 2000er ging die Saga um bei uns Filmschaffenden, da habe jemand, Kerry Conran war sein Name, vier Jahre lang zuhause an seinem Mac einen kompletten Film vorvisualisiert, den er dann in Hollywood finanziert bekommen habe, von einem Neffen von Dino DeLaurentiis himself. Am Ende hat den Film Paramount rausgebracht, nachdem die Produktion 70 Millionen Dollar verschlungen hatte. Und wir alten Musikvideo-Burschis haben uns damals enttäuscht gefragt „Ja verdammt, wenn er ihn doch schon hatte, seinen Film, warum hat er ihn dann dem doofen Hollywood-System zum Fraß vorgeworfen?“ Hatte er nicht bewiesen, daß er das Potenzial hatte, den gesamten Film als Chimären-Team selber zu machen, er und seine Maschine? Warum hat er sich dann von dem verdammten System schlucken lassen, um bei einem Film mit puuuhhh… Jude Law! in der Hauptrolle gnädig Regie führen zu dürfen, nur damit der dann am Ende als Box Office Flop galt, weil er nur 60 Millionen eingespielt, aber 70 Mio gekostet hatte? Wie zum Teufel konnte das dermaßen schief gehen?

Da war mir zum ersten Mal die Vision begegnet davon, daß ein Mensch einen Film komplett selbst machen könnte, genau so, wie man sich auch hinsetzen und ein Buch schreiben kann alleine. Was davon in den Klauen von Hollywood übrig geblieben ist, war der Ansatz, den Film komplett am Rechner entstehen zu lassen (mit Ausnahme der Darstellerinnen, die in weniger als 30 Tagen abgedreht waren), aber eben nicht auf dem Rechner von Kerry Conran, da hatte sich Hollywood schon drübergestülpt und ihm das aus den Händen genommen. Und der Film war dann am Ende eher so „meeh…“, wobei natürlich zugegebenermaßen niemand weiß, ob er’s alleine besser hinbekommen hätte.

Andererseits, truth be told, war es eben auch so, daß Kerry das Anfang der 2000er tatsächlich auch nicht auf seinem Rechner hätte machen können, dafür war zwar die Hardware schon beinahe da, aber eben die Software noch nicht, auch wenn ein Großteil des workflows revolutionärerweise tatsächlich auf „Quasi-Consumer-Tools“ wie After FX & Final Cut aufgebaut war, und auch die Darsteller hätte er nicht selbst ranschaffen können (Aber Jude Law? Oh Mann.)

Interessanterweise hat sich Kerry nach den „schlechten“ Box Office Zahlen bei seinem Produzenten über die Produktionskosten von angeblich 70 Millionen beschwert: Er hätte das Ding für 3 Mio mit No Names hinbekommen, hat er ihm vorgehalten. Hätte hätte, Fahrradkätte, sag ich da.

Ihr seht: die Geschichte der diversen digitalen DIY-Euphorien läßt sich immer auch als eine Geschichte des Scheiterns erzählen, als Geschichte davon, wie diese Euphorien und die sie ermöglichenden technischen Innovationen von den bestehenden Produktions- und Verwertungsstrukturen aufgesaugt und zum Ausspucken von noch mehr, jetzt eben anders hergestelltem Schrott verwurstet werden. Es führt eine direkte Linie von Kerry Conrans oder Roberto Rodrigos One-Man-Show Rebellentum (Rodrigos Buch heißt „Rebel without a crew“, Lesebefehl! Genau wie Conran hat Rodrigo mit SIN CITY einen der ersten komplett vor Grün gedrehten Filme in Hollywood gemacht) zu den MARVEL Sequels, vom Anspruch, seinen eigenen Film ganz allein mit den aktuellsten digitalen Möglichkeiten umzusetzen hin zu einer im Kern toten 350 Mio Blockbuster-Orgie wie Avengers Endgame.

Worauf ich hinaus will, wollt ihr sicher wissen?

This time will be different (maybe)! Ich glaube fest daran, daß dieselbe Geschichte 25 Jahre später – sehr bald also – einen ganz anderen Twist nehmen könnte. Denn was hat neulich Jensen Huang, der CEO von NVIDIA, gesagt? „Soon, every pixel will be generated.“ Nicht gerendert. Nicht gefilmt. GENERATED. Eine maximal revolutionäre Vorhersage, und ich wage zu addieren: nicht immer und unbedingt bei ILM oder PIXAR, sondern auch auf meinem und auf deinem Mac. Spannend wird das.

https://vimeo.com/821101511

ChimäRegie

Die Geschichte von AI & Schach ist schnell erzählt: Der mechanical turk aus dem 18. Jahrhundert war kein Schachcomputer, sondern ein kleinwüchsiger Mensch unter einem Schachbrett, der einfach sehr gut Schach spielen konnte. Gilt also nicht. Danach hatten wir dann die üblichen zwei AI–Rezeptions-Phasen:

Phase 1 ging bis ca. 1996: „Das wird nie gut genug, kreative Intelligenz ist dem Menschen vorbehalten.“  

Phase 2 begann dann unmittelbar nachdem der erste amtierende Großmeister Gari Kasparow 1996 in einem regulären Turnier von einer Software geschlagen wurde: „Das müssen wir verbieten, weil sonst keiner mehr Schach spielt“.

Soweit, so bekannt. Spannend ist dann erst wieder Phase 3, die Phase der Zentauren: Es wird immer noch sehr viel Schach gespielt, von Menschen gegen Menschen, von Menschen gegen Maschinen, aber zunehmend auch von gemischten Teams. Teams, die so eng miteinander arbeiten, daß man sie Mischwesen oder Chimären nennen kann, oder wie es in der Schachwelt heißt: Zentauren, Chimären aus Mensch und AI.

Jetzt gucken wir mal rasch, wie es grade vorwärtsgeht mit der AI im Filmbereich: Runway Gen 2 ist grade noch im closed beta Stadium, und was da nach draußen sickert, hat jetzt bereits die Qualität von DALL-E von vor 12 Monaten. Aber eben nicht in einem einzelnen Bild, sondern schon in unserer Schlagzahl, heißt in 30 Frames Per Second, also in 2.700 Einzelbildern für einen 90-Sekünder. Genau wie bei DALL-E auch kommen die ersten Sachen oft als Parodien daher, aber das sollte uns nicht darüber hinwegtäuschen, daß das Tool selbst kein Parodietool ist, sondern eine ernstzunehmende Konkurrenz für tatsächlich all unser Tun.

Wenn Sie bitte mal kurz schauen wollen? Oder dies hier vielleicht?

Seht mal bitte kurz mit meinen Produceraugen auf die Effizienzpotenziale: Ein Macher berichtet, er habe seinen 90-Sekünder in rd. 30 Stunden Arbeit hergestellt incl. Schnitt, Vertonung, Grade etc. Genauer: er und seine AI, als Chimäre eben, aber nicht als 65-Menschen-Team mit 8 Wochen Prep, 4 Tagen Dreh und 6 Wochen Post in sagenwirmal 3.000 – 5.000 Mann-Stunden. In der Schlagzahl könnte so eine Chimäre innerhalb eines entspannten Jahres einen soliden Spielfilm abliefern. Oder umgekehrt: Die Manpower, die wir Werbevögel aktuell in einen 90sekünder stecken, würde easy für einzwei 90-minütige Blockbuster reichen.

Wenn ich in einem beliebigen Werbefilm-KVA alles rauswerfe, was auch eine AI erledigen könnte, und dabei die kreativen Department Heads & ein wenig Post drinlasse, dann verliere ich je nach Projekt 50-85% der Kosten. Nach allgemein akzeptierter Business-Logik kann es also quasi gar nicht nicht passieren, daß das einen relevanten Teil unseres Businesses übernehmen wird.

Wer da sagt: „Ja aber die Qualität!“, der muß halt nochmal DALL-E von vor 12 Monaten mit Midjourney in der 5. Version vergleichen. Und sich das dann nochmal von vorne anschauen und sich immer noch zu sagen trauen: „Ich sehe da nichts“. Ich für meinen Teil sehe da Einiges.  

Man kann jetzt, wie ein alter Mitstreiter, der mir das obige geschickt hatte, sagen „Stephan, it’s over!“, und ich kann dieses Sentiment so sehr nachvollziehen.

Oder man kann sich fragen, wie denn in mittlerer Zukunft so ein Werbefilmprojekt mithilfe eines Teams aus Regie und AI aussehen könnte, wenn wir von der optimistischen Annahme ausgehen, daß ansonsten erstmal alles gleich bleibt: Es gibt weiterhin Kunden, die 90Sekünder haben wollen, Agenturen, die sich welche ausdenken, Medien, in denen die stattfinden sollen, Produktionsfirmen, die sie produzieren, und Regie-Heldinnen, die sie umsetzen wollen – jetzt aber eben als Mischwesen aus Regie und AI. Ladies and Gentleman, willkommen im Zeitalter der ChimäRegie!

Los geht’s: Die Agentur hat dem Kunden eine Werbefilm-Idee verkauft. 90% der Standardwerbungen werden ja inzwischen entweder beim Kunden inhouse gemacht oder in der Agentur von diversen AI Jockeys, die eine Idee in Runway Gen 16 füttern und aus den 300 Durchläufen dann das Beste zusammenschneiden, vertonen, graden etc. Was natürlich ebenfalls hochgradig AI-gestützt funktioniert wie in ADOBE FIREFLY: Schnittvorschläge von der AI, Musikvorschläge & Soundkatalogauswahl via AI, Grading auf Basis von Textprompts etc..

Aber ab&zu gibt es Ideen, wo alle glauben, daß man mit einer ChimäRegie besser fahren würde, etwa weil die aus echten Darstellern vielleicht noch etwas rausgekitzelt bekommt, auf das die aktuelle Runway Generation noch nicht von alleine stößt. Vielleicht deshalb, weil Runways Outputs noch immer zu sehr an ihrem Trainingsmaterial kleben so wie früher die Autofilme auch sich immer nur mikroskopisch kleine Schritte von dem entfernt haben, was andere Autofilme davor auch schon gemacht haben (Auto auf Küstenstraße; Auto in Großstadt vor Stahl & Glas; Auto an der Ladestation etc.).

Also wird eine der paar verbleibenden Produktionsfirmen den Pitch gewinnen, die eine der wenigen ChimärRegisseure vertreten, die sich eben nicht darauf spezialisiert haben, Dinge umzusetzen, die Runway garantiert NICHT kann (Hochzeitsfilme, Band-Tour-Dokus), sondern die für Werbefilme sich mit einer AI zusammengetan haben und das Potenzial einer Film-AI im Tandem ausreizen, wie das eben weder die Kunden selbst noch die Agentur können.

Pre Production: Wir casten tatsächlich reale DarstellerInnen (ein Big Budget Projekt!). Das Storyboard sparen wir uns, da genügt uns das Text-Script der Agentur, das die ChimäRegie mithilfe ihres Film Know Hows aus alten Tagen in möglichst präzise Textprompts übersetzt. Mit denen füttert sie dann ihre handtrainierte Runway AI. Die hat sie in jahrelanger Trainingsarbeit an sich gewöhnt und auf ihren speziellen Lieblingsstil eingearbeitet, sagenwirmal: „englischer Humor mit einer Prise Selbstironie und einem Schwerpunkt auf High End looks?“. Promptbeherrschung und der exklusive Zugriff auf die jahrelang persönlich trainierte Runway Version sind die beiden Faktoren, mit denen sich unsere ChimäRegie von den Mitberwerberinnen abhebt, ja warum sie überhaupt erst den Pitch gewonnen hat.

Wir scannen die Darsteller, füttern sie in die AI und lassen sieI schonmal loslegen. Statt eines Storyboards haben wir so nach ein paar Tagen eine erste AI-Offline-Version, die unsere ChimäRegie sorgfältig auf Optimierunsgpotenziale abklopft.

Ein paar Takes werden wir vielleicht in den finalen Film übernehmen und nur noch die nochmal real drehen, wo man nach einer Woche Runway noch Verbesserungspotenzial entdeckt hat. Man trifft sich zum PPM, in dem es vor allem darum geht, ob es sich wirklich lohnt, noch real zu drehen; wenn ja, welche Teile und mit welchem Aufwand.

Die Verhandlungslinien sind hier absehbar: Kunde findet alles schon super und weiß eigentlich nicht, warum er jetzt noch das Budget für einen Realdreh locker machen soll. Lieber wäre es ihm, einfach nochmal 2 Wochen AI nachzubuchen, kostet ja fast nix, und der Regie-style ist doch eh schon in der AI eintrainiert.

Agentur & Produktion kämpfen aber hart für ihre Vision eines NOCH BESSEREN Films. Und natürlich kämpfen sie an gegen die ständigen Versuche des Kunden, schon in dieser Phase die MaFo Ergebnisse einzuholen. Man einigt sich darauf, die Close Ups alle einmal real zu drehen; und die eine große Establishing Sequenz, ein verdammt langer One Shot, in der alle DarstellerInnen auf cue was sagen oder tun sollen, die wird man auch nochmal real drehen, weil die AI zwar tolle High End Hintergründe, Kostüme, Lichtsituationen etc. ausgespuckt hat, aber das Timing der menschlichen Beiträge zum Film einfach nicht sitzen will.

Der Kunde grollt derweil im Stillen seiner Agentur, weil sie ihm nicht nur einen Film mit echten Darstellern (die teuren Nutzungsrechte hätten wir uns bei einem reinen AI Film gespart!) und vor allem eine so AI-unkompatibele Intro-Szene aufgeschwatzt hat, aber er sieht schlußendlich ein, daß das wahrscheinlich doch besser geht, wenn man’s real versucht.

Shoot: Wir lassen zwar die Darsteller den ganzen Text sprechen – vielleicht können sie’s ja doch besser als die an ihrer eigenen Stimme trainierten AI-Klone, passiert selten, aber kommt vor; real gedreht werden aber nur ein paar Selected Takes, meistens Close Ups, wo wir mimische Performances von echten Menschen sehen wollen, die die AI noch nicht so gut hinbekommt. Aber unsere ChimäRegie ist trotzdem happy, weil sie endlich mal wieder einen langen One Shot real inszenieren darf. Ein ganzer Drehtag – Yeah!

Post: Die AI hat natürlich weitergemacht und optimiert, während wir gedreht haben; im Schnitt lassen wir dann nochmal die besten AI Shots gegen die besten real gedrehten Takes antreten; vielleicht kombinieren wir beide Welten und legen Teile der Real-Performances über das, was die AI an Szenen schon vorbereitet hat („Hey Runway, nimm das Gesicht von Darsteller A aus dem Realmaterial und ersetze damit sein Gesicht aus dem AI Take“).

Und dann endlich gehen wir in die MaFo.

Ja genau so wird es kommen. Oder was denkt ihr?

AIron Man

Okay, sorry für den mauen Wortwitz, aber ich konnte nicht anders. Just A Rather Very Intelligent System oder kurz JARVIS ist da draußen. Jarvis spricht noch nicht mit uns wie mit Tony Stark, aber das nicht wegen technischer Limitationen, die gibt’s schon gar nicht mehr; sondern wohl nur deswegen, weil wir sonst noch mehr Schiß vor ihm/ihr hätten, als wir es sowieso schon haben.

Vergesst mal Jarvis‘ fancy user interface aus Iron Man, die Grafiken, die immer vor Robert Downey Jr.‘s Gesicht rumschweben, das sind nur so VFX-Platzhalter für „whooo, veeery complicated technology at work“. In Wiklichkeit ist die Idee von Jarvis in Iron Man das Gegenteil dieser Grafiken, Jarvis ist viel simpler und aber gerade deshalb so viel mächtiger. Warum? Jarvis spricht mit Tony Stark, und Jarvis erledigt, worum Tony ihn bittet. Jarvis ist ein Assistent, aber nicht wie Alfred, der Butler, sondern eher wie Siri auf Steroids.

Was müßte denn Jarvis in unserer Welt können, um ein so guter & mächtiger Assistent zu sein? Jarvis müßte mit mir kommunizieren können; und er müßte mit all den anderen Tools da draußen interagieren können, sprich: Schnittstellen haben zum Netz und zu allen anderen Programmen/Interfaces, die es bereits gibt, und die wiederum Schnittstellen in die reale Welt haben: Ich bitte Jarvis um ein Rezept für eine Quiche Lorraine. Jarvis findet ein Rezept, bestellt die Zutaten beim REWE Lieferdienst, und der liefert mir die Zutaten. Aber Jarvis müßte nicht nur mit REWE kommunizieren, sondern mit allem & jedem. Jarvis müßte DAS EINE FRONTEND sein, das ich brauche, um mit jeder Art Software zu interagieren. Und mit einem immer weiter wachsenden Teil der physischen Realität, die sich über diverse Software Interfaces erreichen lässt, ohne daß ich mit diesen Software Interfaces selbst in Berührung komme: Das soll ja mein Assistent Jarvis für mich erledigen.

Alles, was es dafür noch braucht, um Jarvis wahr werden zu lassen, ist (bitte ankreuzen)

  1. ein Multimilliardär-Genie wie *cough* Bill Gates Elon Musk *cough*: Tony Stark, der das entwickelt und finanziert
  2. 20 Jahre Forschung & Entwicklung zu AI
  3. Plugins

Ihr ahnt es, die richtige Antwort ist natürlich „C,“ A & B hamwa schon, und seit kurzem ist auch C am Start, denn ChatGPT4 ermöglicht, tadaa, P-l-u-g-i-n-s.

Und was so harmlos & simpel klingt („Plugins? Kenn ich! Braucht mein Quicktimeplayer um die RED Daten abspielen zu können“) ist ein Riesenschritt, weil das die Kommunikation zwischen ChatGPT4 und anderen Programmen ermöglicht, und zwar auf Initiative und optimiert seitens der anderen Programme selbst.

Achtung, weit hergeholte Vorhersage: Genau wie sich sämtliche Websites nach und nach dahingehend optimiert haben, daß GOOGLE sie findet, werden sich bald sämtliche Programme und Interfaces dahingehend optimieren, daß ChatGPT mit ihnen optimal interagieren kann. Nicht mehr du & ich als User, sondern unser aller Assistent. Und wenn das tatsächlich passiert, dann ist das in Wahrheit der Schritt vom ChatBot zum universalen Interface, von ChatGPT4 zu Jarvis.

Expedia zählt zu den ersten Anbietern dieser Art Plugins: Anstatt sich einen Reiseplan zurechtzulegen, und den dann selber mühselig auf der Oberfläche von Expedia abzuarbeiten, kann ich ChatGPT mit ein paar Sätzen briefen, wie meine Reise aussehen soll, und Jarvis klärt das dann mit Expedia. Inklusive Restaurantreservierung, Flugbuchung, Hotelbuchung etc.

Was bedeutet das im Speziellen für uns Producerhasen?

Eins der großen Themen war ja anfänglich, ob ChatGPT Google überflüssig macht als Gateway zum Netz, als die bessere Suchmaschine. Mit Plugins ist jetzt weit mehr als das passiert: ChatGPT macht mittelfristig alle andere Software nicht überflüssig, aber es wird sich im Alltag als Interface zwischen uns und andere Software schieben und der neue Gatekeeper werden für unseren Umgang mit den Tools auf unseren Rechnern und Telefonen. Damit ist das Supertool am Horizont in Sicht, ein General Interface, das für uns mit allen anderen Tools kommuniziert.

Fun Fact: ADOBE hat grade seine eigene Text-To-Image AI „Firefly“ präsentiert und wird sie als Plugin in Photoshop und Lightroom und auch in diverse Bewegbildtools integrieren. Und so nebenbei Adobes eigenes Stockfoto-Business kannibalisieren (wohl notgedrungen – bevor es andere tun…). Da kann man das Zusammenspiel zwischen AI und einem klassischen Tool wie Photoshop jetzt live innerhalb dieses begrenzten Biotops beobachten: Auch hier wird sich zeigen, wer hier am Ende wessen Plugin ist. Bleibt Photoshop Photoshop mit ein paar AI Erweiterungen, oder transformiert sich das nach und nach in eine Bilder generierende und manipulierende AI, die über alle präzisen Kontrollfunktionen aus Photoshop verfügt, die Midjourney et al. bisher eben noch nicht haben?

Zurück zur Producerrealität. Ich habe Gerüchte gehört über einen Autofilm, der gerade komplett im Rechner entsteht: alle Hintergründe und das Auto selbst werden in Unreal Engine zu einem kompletten Produktfilm zuammengefahren. Hintergründe, Kameramoves etc sind photorealistisch und ergeben einen Film, der zu 100% real aussieht. Noch mit viel Arbeit und Glitches und Problemen und Abstimmungsprozessen etc, sodass die 60 Sekunden Film da noch Monate an Produktionszeit fressen mit hunderten von Mann/Frautagen an Arbeit, Abstimmungsschleifen aus der Hölle etc. Vielleicht sogar sehr viel mehr „Handarbeit“ in Summe – ironischerweise – als wenn man real drehen würde.

ABER. Was wenn das bald state of the art ist (und das ist es, mark my words), und wenn die Diskussionen darum, ob das denn nun schon genauso gut wie real gedreht ist, mal ausdiskutiert sind, wie sie es auch beim Thema „Digitalkameras vs. Film“ irgendwann waren? Ich sage an dem Punkt sind wir schon. Diese ganzen AUDI Filme etwa, ihr wisst schon: Ze future is an attitude und so, die WOLLEN doch so aussehen, als wenn sie aus dem Rechner kämen, die könnten längst komplett aus dem Rechner kommen und niemand würde den Unterschied bemerken, ob nun die Stahl&Glas Wolkenkratzer aus Dubai kommen oder aus der Unreal Engine.

Okay, da sind wir, werdet ihr sagen, aber was kommt dann? Vielleicht das hier, sicherheitshalber noch im Konjunktiv formuliert, damit ich nachher alles als reines Gedankenexperiment abtun kann: 

Was, wenn die Unreal Engine ein Plugin für ChatGPT anböte und ich sagte oder tippte: „Jarvis, sprich doch mal bitte mit der Unreal Engine, ihr kennt euch doch. Ich hätte gern einen 30 Sekunden langen Autofilm, der in der Wüste spielt mit folgendem Auto, hier ist der Link zur Regieinterpretation mit allen Midjourney Prompts, mit denen wir die Bilder erzeugt haben; und hier die CAD Daten vom Auto. Bitte inkludiere folgende Einstellungen: 1-15. Storyboard läßt du dir von MJ malen, ich schau vielleicht vorher mal drüber, oder egal: mach einfach fertig, wenn’s mir nicht gefällt machen wir – also ihr – halt nochmal von vorne. Und dann besorg‘ dir einen Timeslot & Rechenpower bei Baselight und leg mir mal einen Filmkorn-Look darüber. Nur weil ich Bock hab, das mal zu sehen. Oh, und komm‘ mir nicht mit so einem langweiligen U-Crane-Film nach Hause, ich will crazy Transitions, ungesehene Kamerafahrten und einen superedelen High End Look.“ Hach, ich wollte schon immer mal wie ein Agenturkreativer sprechen, vor Jarvis muß ich mich ja nicht schämen für Plattitüdengewitter, ist ja nur Software.

1 Stunde später: „Naa, zu viele Wide Shots, der Kunde braucht noch CloseUps von den folgenden 3 Car Features, mach nochmal. Und vergiß‘ das mit dem Filmkorn-Look aus Baselight, gefällt mir nicht. Sprich mal mit Resolve, ob derdiedas nicht sowas in Richtung Chungking Express Look anbieten kann.“

Und was, wenn unser aller SCOPE Kalkulationsprogramm demnächst ein ChatGPT Plugin anböte, und ich Jarvis zurufen könnte: „Kalkuliere mir doch einen Margarine-Film in Kapstadt, 2 Drehtage, mittleres Preissegment, 5 Happy-Family-Darstellerinnen aus Deutschland wegen deutschem Dialog, Styling & Production Design von vor Ort, aber anspruchsvolle Regie, für die Post nur Schnitt, Grading und 1 Tag Tonmischung, bittesehr“?

Ja, was dann? wie es so schön bei „Peter & Der Wolf“ heißt.

*Danke an Rex Woodbury für die JARVIS Idee & tonnenweise input, abonnieren dringend empfohlen!

What AI Wants

Richard Dawkins hat die Idee eines „Memes“ aufgebracht: einer distinkten Informationseinheit, die analog zu einem Gen funktioniert, sich reproduziert, darwinistischer Selektion unterliegt etc. Kevin Kelly hat den Begriff „The Technium“ erfunden, um Technologie nicht im Detail, sondern als großes Ganzes zu betrachten und diverse Entwicklungstendenzen von Technologie zu beschreiben.

Beide haben dabei eine interessante Perspektive auf ihr jeweiliges Subjekt eingenommen, die die übliche Konsumenten-Perspektive – „Was bringt mir das? Was will ich damit? Ist das ein neues Werkzeug, besser als die alten?“ umkehrt. Am pointiertesten und provokantesten formuliert hat diese Perspektive Kevin Kelly mit seinem Buchtitel  „What Technology Wants“. Was will Technologie? Was wollen Memes? Was wollen Gene? Aus diesen Fragen haben sich interessante Antworten ergeben – probieren wir das doch hier auch mal und fragen uns:

„Was will eigentlich AI?“

Und wie unterscheidet sich das von dem, was wir wollen, wenn wir sie verwenden, und von dem, was ihre Macher wollen/wollten, als sie sie gebaut haben, oder was sie jetzt wollen, wo sie versuchen, sie zu monetarisieren?

Vielleicht sowas hier:

AI will ein eigenes Medium werden.

AI will um unsere Aufmerksamkeit konkurrieren mit den bekannten Medien, und sie hat einen ähnlich hohen Grad von Involvement zu bieten wie Games.

AI will die Welt mit Bildern fluten.

AI will uns zeigen dass alles darstellbar ist was in Worten beschreibbar ist.

Und alles, was als Variation über bereits Dargestelltes darstellbar ist.

AI will uns doch nur helfen – Kevin Kelly hat schon vor Jahren geschrieben, AI wäre künftig wie Elektrizität: Eine Kaffeemaschine, aber MIT STROM! Ein Fahrrad – aber MIT STROM! Ein Schnittprogramm – aber MIT AI! Ein Storyboardtool – aber MIT AI!

AI will uns schmeicheln, indem sie uns die Illusion bereitet, wir könnten mit drei Worten und ENTER Kunst erzeugen. Das ist ihr primärer Kitzel – nicht: „Wow wie super sieht denn das aus“, sondern „Wow, wie super sieht denn aus was ICH GEMACHT HABE!“

Jeder ein Künstler – noch nie waren wir wirklich und mit so viel Output, der das belegt, nah dran an der Einlösung des Beuys’schen Versprechens, das jetzt mit einem Mal nicht nur eine Ermutigung ist, sondern etwas, das wir mit drei Worten und einem ENTER klicken einlösen können.

Aber stimmt denn das auch? Sicher erinnert ihr euch an Billy Bob Thornton als General Holonek in „Whiskey Tango Foxtrot“: er kommandiert eine Marines Einheit in Afghanistan, und in einer Szene sehen wir ihn, wie er auf einem dieser bekloppten Stepper sein Workout betreibt; BBT ist ja, obwohl er so ein harter Hund ist, eine eigentlich sehr fragile Gestalt, und wenn man ihn  so auf dieser Maschine werkeln sieht, fragt man sich unwillkürlich: „Wer workt hier eigentlich wen aus?“

Und genau das soll wohl auch als visuelle Metapher den gesamten vertrackten Krieg beschreiben. Wenig später sagt der General es nochmal expressis verbis für alle, die es in der Szene mit der Maschine noch nicht verstanden haben: „This war is like fucking a gorilla. You keep going until the gorilla wants to stop“.

Daran muß ich regelmäßig denken, wenn ich die Posts vieler AI Künstler / Prompt Artists / Syntographen, whatever sehe: „Look what I made“… “I came up with this picture of XYZ“… Ihr verwechselt da etwas, habe ich den Verdacht: Die AI macht einfach immer weiter, und ihr füttert sie nur. Die AI ist der Gorilla, der nicht aufhören will, ihr glaubt nur dass ihr da das Sagen habt, weil ihr ja schließlich ständig was sagt/promptet. Wie illusorisch aber das Gefühl von Kontrolle ist, weiß jeder, der schonmal aus Versehen einfach irgendeine Katze-läuft-übers-Keyboard Tastenkombi eingegeben hat. Auch die erzeugen verläßlich tolle Bilder. Die AI braucht unseren Kontroll-Anspruch nicht, sie kommt mit jeder Art Input zurecht.

“Maybe AI will help you work. But more likely, you’ll be working for AI.” schreibt neulich wer in THE ATLANTIC als Conclusio einer langen Analyse dessen, was ChatGPT an zusätzlicher Arbeit an Unis und Schulen erzeugen wird.  

Und das hat natürlich auch seine Berechtigung. AI hat aus sich selbst heraus die Tendenz, MASSE zu produzieren. Agenturen und andere Produzenten von Kreativcontent haben ebenfalls die Tendenz, Effizienzgewinne durch mehr Output wieder wettzumachen: Mehr Straßen erzeugen auch nicht weniger Staus, sondern mehr Verkehr. Drehen auf Digital statt auf Film ist vom Material her billiger, aber erzeugt die X-fache Menge an Material, es braucht einen DIT zum Verwalten, mehr Speicherplatz und Schnittplatzzeit zum Sichten etc.

Aus meiner bescheidenen Anfängerperspektive sieht es manchmal so aus, als wäre da wirklich eine sehr machtvolle kreative Entity in die Welt getreten, die mit uns gemeinsam ganze Universen an Output erzeugt, unablässig,  und mit massivem Suchtpotenzial. Sie bietet sich als Werkzeug an, sie schmeichelt unserem inneren Künstler/Art Director/Whatever, aber was, wenn sie uns eigentlich nur als Stichwortgeber braucht?

Just Another Tool

Auf die Gefahr hin, etwas obsessiv rüberzukommen: TADAAAAA! „AI Realismus“ ist auf einmal eine Tatsache. 

Noch vor ein paar Wochen hatte alles, was da rauskam, so einen illustrativen Touch. Ja, die AI konnte tolle Welten malen, die wie die Illustrationen aus meinem 60er Jahre „Reader’s Digest Jugendbuch für Jungen“ aussahen, so weit, so nett, so harmlos (für alle Nicht-Illustratoren, Comic-Zeichner & Storyboard Artists jedenfalls).

Seit SD 2.x und MJ 4.x können die führenden AIs wirklich fotorealistische Bilder erzeugen. Die findest du, wenn du dich nicht von dem kindischen Noise ablenken lässt, „Batman mit Bauch im Duell gegen Trump als Weihnachtselfe“ etc., in den das noch eingebettet ist. Und jede/r schusselige Consumer wie yours truly kann sie erzeugen (lassen). Seht euch mal diese random zusammengestellten Beispiele von AI erfundenen Bildern aus meinem AI Feed in Midjourney an, die mühelos in diversen Kernbereichen unseres Werbefilmschaffens mithalten können:

AI People / Portraits

AI Sneaker / Produktfotografie

AI Beauty & Fashion

AI Autos

AI Architektur & Gebäude

AI Interiors & Räume

AI Foodporn

Und ich hab das dumpfe Gefühl, dass diese Schritte – von der Illustration zum Foto-Realismus in ein paar Wochen – in einer ähnlichen Schlagzahl weiterhin kommen werden: „Text–to-3D“ ist schon verfügbar; ChatGPT ist erwacht und schreibt Battle-Rap-Texte und Textprompts für bessere AI Bilder. META hat „Text–To-Video“ vorgestellt. Bam, Bam, Bam.

AI wird diverse Jobs günstiger erledigen können als auf traditionelle Weise hergestellte Jobs.  Da hätte ich jedes Verständnis dafür wenn Food-Stylisten, Stockfotografen und MakeUp Artists doomsdaymässig kreischend durch Mitte laufen, die Fäuste gen Himmel schütteln und immerzu rufen: „The end is nigh, wir werden alle unsere Jobs verlieren“. Da kann Kevin Kelly ruhig in gewohnter Techno-Optimisten-Manier das Gegenteil versprechen (ohne jeden Beleg, und eigentlich wider besseres Wissen übrigens). Auch wenn er ansonsten den besten Artikel zum Thema geschrieben hat, der mir bisher begegnet ist. Aber ich schweife ab.

Diese AI wirft die traditionellen Schnittstellen über den Haufen zwischen Kreation und Exekution, zwischen Briefing vom Kunden, Ideenfindung in einer Agentur und Ideen-Exekution durch uns Kreativhandwerker. „Wir sind die Designer, ihr die Schreiner“ hat Springer oder Jacoby angeblich mal gesagt. Not any longer, möchte man antworten. Die AIs haben an aller visuellen Kreativität der Welt trainiert; ihr Output hat deshalb – alle drei Minuten & per Knopfdruck – oft genug mehr visuelle Kreativität zu bieten als viele Agentur-Kreativteams, und das at scale.

Wenn ich eine Agentur wäre, dann hätte ich längst eine Pipeline etabliert, die zu allen Themen, die mich und meine Kunden angehen, täglich sagenwirmal 500 Bilder erzeugen lässt. AI unterstütztes Brainstorming sozusagen. Und wenn nur, um meinen Vorsprung gegenüber den Konsumern nicht zu verlieren… Denn die AIs stehen jedem zur Verfügung. Dem Kunden. Dem Praktikanten in der Agentur, der zum Sortieren der täglichen 500 Bilder abgestellt worden ist, und plötzlich mit DEM ULTIMATIVEN BILD in der Hand dasteht und überlegt, ob er’s als seins verkauft bekommt. Der Photographin vorm und beim und nach dem Foto-Shoot. Und dem Caterer. Und… Aber ich schweife schon wieder ab.

Was ist denn nun eigentlich die neue Qualität dieser AIs, und warum ist es so disruptiv, wenn sie jeder/m zur Verfügung steht? Warum verfangen diese „AI is just another tool“ Argumente eben nicht, die ich schon ein paarmal gelesen habe… „Einen Pinsel kann sich jeder leisten, aber darum wird noch nicht jeder Picasso“ Oder „Ja, fotografieren kann auch jeder mit seinem iPhone, aber darum kann deine Oma noch lange nicht das nächste VOGUE Cover fotografieren“.  

Tools sind konzeptlose, vergleichsweise unintelligente Werkzeuge, auch wenn sie an hunderten von Jahren an kreativer Arbeit optimiert worden sind. Photoshop kann einen sehr konkreten Befehl sehr konkret umsetzen: Mach das Bild heller. Toll, aber trotzdem ein Tool. Ein iPhone kann eine sehr konkrete visuelle Realität – was sich vor deinen Augen befindet – sehr konkret in ein vielleicht sogar beeindruckendes Bild verwandeln. Toll, aber trotzdem ein Tool.

Die abstrakten Konzepte dahinter – hinter dem Bild, das dein Pinsel malen soll, hinter dem Foto, das du von diesem spektakulären Sonnenuntergang machen möchtest – sind dabei aber für Tools wie Pinsel, Photoshop und iPhone unerreichbar. Dafür braucht es die spektakuläre Intelligenz einer AI. Die hat anhand eines Datensatzes aus rund 6 Milliarden Bildern und deren jeweiliger verbaler Beschreibung trainiert und kennt deshalb bis zu einem gewissen Grad die Verbindung von Bildern und von logischen, ästhetischen, visuellen, historischen und 1.000 anderen Konzepten, und sie kann sie zur ERSCHAFFUNG von Bildern aus Konzepten anwenden. Damit ist sie im Allerheiligsten des kreativen Prozesses angekommen: beim BILDER ERFINDEN, und das jetzt schon auf photorealistischem Niveau. Nicht nur ein Tool, sondern ein Quantensprung. 

Und die Fähigkeit, KONZEPTE zu erfinden, aus denen man Bilder machen (lassen) kann, die ist, steile These, deutlich anders verteilt als die Fähigkeiten, anhand derer sich die Menschen heutzutage in die bisher vorhandenen Kreativberufe einsortieren. Vielleicht gibts am Ende in unserem ganz speziellen Ökosystem nur noch 2 Sorten Jobs: AI Jockeys und Kreativdirektoren. 

Okay, und Juristen. Und Buchhalter. Und die werden die Zukunft dieser Sorte AI natürlich mindestens genau so mitentscheiden wie die kreativen Use Cases. Es braucht dabei weder Buchhalter noch Producer, um grob zu überschlagen, wie viel weniger bei der Herstellung all dieser Bilder ausgegeben worden ist. Und die Kombination aus Qualität und Kosteneinsparpotenzial wird dem Ganzen so einen Schub verleihen, dass wir da alle noch mit den Ohren schlackern werden. Hey, ist ja nur ein Blog, da kann ich so viele Maximalismen auffahren wie ich Lust hab!

P.S.: Die Portraits im Header hat mir MJ ausgespuckt auf Basis eines simplen Textprompts. Keine Post Production, kein garnichts. Die Bilder im Beitrag sind zum Teil von mir & MJ, zum größten Teil aus meinem MJ Feed / von anderen MJ Usern veröffentlicht. Da weiß ich weniger über den Herstellungs-Prozeß.

P.P.S.: Hier ist meine, oldschool, Facebook-Gruppe mit Beispielen zum Thema „AI Realismus“.

P.P.P.S.: Ich bin grade nochmal gestolpert über Interview mit David Bowie aus 1999, in dem er total abspacet darüber, dass das Internet alles über den Haufen werfen wird. Und was antwortet Jeremy Paxman von der BBC? „But it’s just a tool, isn’t it?“ (ca. min 11:00) Well, maybe not.

Ganz ehrlich: Ich versteh‘ das Argument nicht. Ich verstehe die Motivation hinter dem Argument – Pfeifen im Walde, ist doch nur ein Werkzeug, wird schon nicht so schlimm werden – aber ich glaube, das Argument geht an der Sache vorbei. Ein Laptop ist auch ‚just a tool‘. Ein Auto auch. Ein Webstuhl auch. Aber trotzdem sind das alles transformative Technologien mit massivem Veränderungspotenzial für diverse gesellschaftliche Prozesse. Das kann man doch nicht einfach so kleinquatschen!

Japanischer Freelancer mit 5 Buchstaben?

„Ronin“ heißt ein ehemaliger Samurai, der keinen Dienstherren, und damit auch keinen Job hat, ein drifter, ein Streuner (wörtlich im Japanischen: 浪人: „Wellenmann“). Eine unmögliche Person, für viele Jahrhunderte das Schreckbild eines aufrechten Samurai eigentlich. Aber was müssen wir da bereits im Jahr 1710 in Tsunetomo Yamamotos „Hagakure“ lesen, einem der Standardwerke über das Selbstverständnis des Samurai?   

“People think that nothing could be worse than being a Ronin; and that, if dismissed from duty, it must crush the spirit and lead to a loss of incentive. Yet, when I was a Ronin, I found it was not at all that bad. It was different than what I expected, and to be honest, I wouldn’t mind being a Ronin again.”

Noch ein Jahrhundert zuvor, zu Beginn der Edo Periode, wäre das eine recht frivole Perspektive auf das Thema Arbeitsplatzverlust gewesen, die sich ein Samurai wie Yamamoto nur deshalb leisten kann, weil er unter dem Nabeshima-Clan diente, der entgegen der traditionellen Gepflogenheiten auch Ronins wieder zu Samurai machte. Für die Mehrheit der Clans unter dem Tokugawa Shogunat war das nach wie vor undenkbar: einmal Ronin – immer Ronin. Nach alter Tradition konnten Ronins nie wieder einem andern Herren dienen. Es gab Heerschaaren zwangsweise zu Ronin gewordener Samurai, die nur deshalb ihren Job verloren hatten, weil ihr Daimyo in einem der unzähligen Kriege sein Leben verloren hatte, Ronins, die sich in Ermangelung anderer Möglichkeiten als Banditen durchschlugen, blutige Roninaufstände etc. Unpraktischerweise erlaubte das starre Kastensystem der frühen Edo-Zeit nämlich auch nicht, daß Ronin Bauern oder Handwerker wurden, Umschulen war nicht.

Die verbreitete gesellschaftliche Erwartungshaltung gegenüber einem Samurai, der seinen Job verloren hatte, war demensprechend, dass er doch bitte sepukku begehen möge, die rituelle Selbsttötung mittels Bauch Aufschlitzens. 

Relativ extreme Erwartungshaltung, dass man sich entleibt, wenn der Arbeitgeber abtritt, sag ich mal: was für eine beknackte Definition von Loyalität! Und wie unökonomisch, gesamtgesellschaftlich gesehen, ständig einen Teil seiner Workforce auszulöschen oder in die Illegalität zu treiben. Mag ja ganz gut gegen die innere Kündigung helfen, aber geht’s vielleicht auch ‘ne Nummer kleiner? Haben die Japaner auch irgendwann als Gesellschaft verstanden, dass man sich das nicht leisten kann auf Dauer, wie es sich schon im obigen Hagakure-Zitat zumindest als „Ich hab da mal ‘ne ganz unkonventionelle  Idee“ ankündigt.

Spoiler alert: Uneingeschränkt ist das Hagakure nicht zu empfehlen als Producerlehrgang, es ist pickepackevoll mit jeder Menge schwer verdaulichem Altherren-Gerumpel á là „Gähnen in der Öffentlichkeit ist vulgär!“, aber es ist erstaunlich unterhaltsam zwischendurch. Und vor allem wirft es – vielleicht gerade weil es kulturell und zeitlich so weit weg ist – tatsächlich immer wieder die Frage auf, wie das denn bei uns so funktioniert, bei den festen Producern, den Festen Freien, den Freelancern, den Permalancern und unseren Daimyos, den Produktionsfirmen? Wem schulden wir denn nach dem uralten Producerkodex Treue, Loyalität, Gefolgschaft? Darauf wird es für jede Art Producersamurai die unterschiedlichsten Antworten, unterschiedliche individuelle Schwerpunktsetzungen geben.

Es soll ja Producer geben, die wirklich und wahrhaftig an guter Werbung interessiert sind, an guten Werbefilmen im Besonderen. Der Beak Street Bugle hat mal behauptet: “You’ve got more chance of making a good film with a good producer and a bad director than the reverse”. Egal ob das stimmt oder nicht: Es gibt Producer, die das glauben, und die Einiges bis Alles für einen guten Film geben.

Viele fühlen sich tatsächlich diesem Job, seinen Gepflogenheiten, seinen ungeschriebenen Regeln verbunden, zu denen thank goodness nicht das Bauchaufschlitzen gehört: „This is how we do it“, Standesehre, Berufsethos, das gibts hier tatsächlich, wenn auch eher verdeckt, gern in subtilen, quirky Ritualen: „Don’t Jinx it!“ zu sagen, wenn jemand sich so verhält, als wenn der Job schon da wäre, bevor er WIKRLICH da ist, beispielsweise.

Und dann das Projektgeschäft im Speziellen: ein gemeinsames Verständnis herrscht unter vielen Produzierenden, dass das Projekt, welches auch immer es grade sei, fertig werden MUSS, und nicht nur von alleine und irgendwie, sondern in time, mit aller verfügbaren Energie und so (kreativ, finanziell, karmamässig) gut wie irgend möglich. Das reicht vielen als Selbstdefinition. Für einige ist das eine Zwischenstation auf dem Weg, selbst ein Daimyo zu werden, für viele die ich kenne, ist das schon genug: ein guter Producer zu sein.

Manche fühlen sich nach alter Samurai-Sitte gebunden an ihren Daymio, den Menschen, der/die die Company gegründet hat, für die sie schaffen. Nachdem das hier grundsätzlich very personal business ist – keine Produktionsfirma mit einer Ausnahme besteht in Deutschland aus mehr als 30 Leuten – ist das erfahrungsgemäß weit verbreitet.

Für wieder andere geht’s um den Clan, die Posse, die Verbündeten, die Mitstreiter, der Mikrokosmos der Peoples, mit denen man Projekte wuppt. Only crew love is true love!

Oder ist es das Geldverdienen? Soll ja ab&zu stattfinden habe ich raunen hören, und es soll Producer geben, die das ganz besonders gerne machen und stolz darauf sind, aus einem Projekt möglichst viel rauszuholen für den Daimyo und für sich selbst am Ende auch, natürlich.

Auch wenn wir nicht das englische System der personal producer haben:  viele fühlen sich als „Regisseur XYZ’s Producer“. Kenn ich, kann ich nachvollziehen, macht auch eine Menge Sinn, auch wenn das in diesem schnelldrehenden Business, in dem Regisseure und Producer regelmäßig rotieren, oft schwer herstellbar und durchhaltbar ist

Die Loyalitäten gegenüber all diesen unterschiedlichen Faktoren können friedlich in unterschiedlichen Mischungsverhältnissen in einer Producerpersönlichkeit koexistieren, sie können aber auch miteinander kollidieren, und das kann dann auch mal scheppern und wehtun.

Yamamoto wollte per sepukku seinem Chef nach dessen Ableben ins Nirwana folgen, angeblich aber DURFTE er nicht. Naaaaaa, bin ich hier der Einzige, für den das ein wenig zu convenient klingt? Ganz vielleicht war er ja auch froh, daß er selbst, dessen Philosophie sich zu 90% um Todessehnsucht und Diensteifer bis zur Selbstaufopferung drehte ohne daß er selbst jemals in den Krieg gezogen wäre, nicht am Ende die Konsequenzen seiner eigenen Ausführungen ausbaden mußte, und stattdessen ins Kloster abtauchen konnte.

Wie auch immer – das Ausschlachten seiner blutrünstigsten Weisheiten überlasse ich gern schmierlappigen Motivationsseminarleitern und entlasse uns alle stattdessen mit einem doch sehr Werbefilmproduktions-kompatiblen Ratschlag:

„Man kann keinen guten Dienst leisten, wenn man von anderen nicht gemocht wird. Niemand kann einen Mann hassen, der sich darum bemüht, nützlich zu sein, der seinen Dienst liebt, sich dafür anstrengt und allzeit bereit mit seinen Weggefährten arbeitet.“

What’s your baseline?

Nichts ist schwieriger als ganz hinter seiner Arbeit zu verschwinden, neutral zu sein beim Kalkulieren. Auch wenn er sich in Excel herstellt / aufbaut, ist ein KVA natürlich nie ein rein rationales, formelbasiertes Produkt, sondern in die Gesamtsumme fließen immer auch die Grundannahmen, aber auch die Gestimmtheiten des Produzierenden ein. 

Du findest, das Business ist als Ganzes überkompliziert, von Sicherheitsdenken gelähmt, das geht doch auch anders, hemdsärmeliger, mal mit „Fünfe gerade sein lassen“ und „Mut Zur Lücke“? Oder bist du eher der Ansicht, dass unsere Crews besser bezahlt werden müßten, wir natürlich sowieso, daß Agenturen und Kunden grundsätzlich die Produktionen übervorteilen und mithilfe der Pitchkonkurrenz zwingen, immer unangemessen billig anzubieten etc. pp. Dann wirst du jeweils deutlich anders kalkulieren, auch wenn du haargenau dieselbe Software dafür benutzt.

Stellt Euch vor, es gäbe endlich eine AI, die uns überflüssig macht: Ihr schubst oben ein Agenturscript oder ein Regie-Treatment rein, und unten kommt eine Zahl raus, Feierabend. Klingt lächerlich? Wartet’s mal ab…. Ich will aber grade gar nicht in die Diskussion einsteigen, wann denn unser Job von einer Kalkulations – AI erledigt werden wird und ob das gut oder schlecht ist. Ich finde nur die Perspektive hilfreich als Hypothese: daß es so etwas wie einen objektiv ermittelbaren Preis, eine BASELINE gibt.

Ich will auch die beiden oben skizzierten Grundgestimmtheiten nicht diskutieren oder gegeneinander abwägen. Ich will nur den Punkt machen, daß sie beide im Kalkulationsprozeß ihren Platz finden können, aber erst nachdem wir uns jede Mühe gegeben haben, eine objektive Baseline zu etablieren.

Der Prozeß der Preisfindung ist also – nach der Fact Finding Mission, die die Basics zusammenträgt  – idealerweise ein zweistufiger: 

  1. Was ist unsere Baseline? Was würde das objektiv kosten?
  2. Von welchen Zielen, Grundannahmen, Biases, Extrawünschen, Politics etc. lassen wir diese Baseline modifizieren?

Die objektive Baseline mag eine Fiktion sein, die für immer unerreichbar bleiben muß, aber sie ist eine hilfreiche Fiktion. Ohne sie verlieren wir viel zu schnell den Überblick darüber, was wir eigentlich kalkuliert haben: Die harten Fakten, oder – bis zu welchem Grad, mit welchem Anteil? – unsere eigenen Biases, Wünsche etc.

So, und wenn wir das geklärt haben, dann sind wir bereit für Stufe 3: Die Verhandlungen mit Agentur, Kunde, Cost Controller, Einkauf und all den anderen, die da nochmal einen ganz eigenen Blick drauf haben als wir…

On To The Next One!

Film ist time based art, was für unsere Werbefilme ja auch bedeutet: sie sind schnell, kurz, und schnell wieder weg. Könnt ihr Euch noch an den Superbowl TV Spot von letztem Jahr erinnern, wo… nein? Ich auch nicht. 

Sehr gut hingegen erinnern kann ich mich an einen Spot über einen Postboten, der einen Riesenalarm veranstaltet, um nur einen einzigen Brief zu delivern: Hundertschaften von Kollegen marschieren mit, Flugzeuge und Helikopter verdunkeln den Himmel, und wenn er dann endlich seinen Brief eingeworfen hat, sagt der englische Darsteller als wär nichts gewesen: „On to the next one“. Im Deutschen dann, gedubbt und wie immer nur halb so stark: „Auf zum Nächsten“! Weil ich ihn produziert habe, nicht weil er so wahnsinnig merkenswert gewesen wäre.

In Wahrheit war das natürlich nichts als eine mühselig kaschierte Metapher auf das Werbefilmschaffen an sich. Man kann sich da wochenlang reinfräsen, man bläst in ein paar Tagen ein paar hunderttausend Euro in die Luft für 60 Sekunden fertigen Film, man kann leiden wie ein Hund, aber auch Spaß haben wie Gott in Frankreich (außer wenn man in Frankreich produziert). Aber das Schöne und das Schreckliche zugleich ist: All das ist doch sehr endlich. 

Wer diese Flüchtigkeit, das Serientäterhafte daran nicht mag, der sollte sich was anderes suchen. Noch alle Musikvideodirektoren die ich getroffen habe, waren heimliche Spielfilmregisseure. Das hat ihre Musikvideos nicht unbedingt immer besser gemacht. „Oh shit, der Künstler muß ja auch noch drin vorkommen, na, kriegt er halt eine Nebenrolle in seinem eigenen Musikvideo, das ja eigentlich mein Kurzfilmprojekt ist.“ 

Mir persönlich kommt das ja sehr entgegen. Das ist ein wenig wie Sylvester: um Mitternacht gehen alle raus, böllern ein bißchen und lassen bunte Raketen steigen, das macht dann kurz Spaß, aber dann reichts auch schnell wieder. Natürlich können wir beim Werbefilm nicht ein Jahr Pause zwischen zwei Projekten machen, aber der Vergleich ist trotzdem nicht so weit hergeholt.

Ich hab mal ein ganzes Jahr lang eine Show geprept, die dann 4 Wochen vor Aufführung abgesagt wurde. 13.000 Darsteller durch einen selbstausgedachten Castingprozeß geschleift, hurgh. Viel schlimmer als die Absage fand ich aber, wie lange die Vorbereitung gedauert hat. Wahnsinnig zäh, das Ganze. 

Wie viel Vorbereitungszeit ist denn ein 60sekünder wert? 10 Tage, wenn ich in meinem KVA die Producertage anschauen, die ich da so im Schnitt kalkulieren darf. Reicht meist nicht, real braucht’s ja gern mal das Doppelte, aber irgendwas dazwischen fühlt sich richtig an: zwei-drei Wochen, dann ist der Fisch geschrubbt! Okay, noch etwas Post Pro, aber dann ist auch gut gewesen. Ab auf den Sender damit, und dann: On To The Next One!

No rain, no rainbow

Wetter? Wirklich? Ja: Wetter. Wetter schmeißt gern mal alles durcheinander und legt dann für alle die Kommunikations- und Entscheidungsstrukturen offen, die sonst immer im Selbstverständlichen und Routinierten so vor sich hinfunktionieren. Dann nämlich, wenn es auf einmal und mit einem sechsstelligen Betrag an Mehrkosten im Nacken um die Frage geht: drehen wir jetzt weiter und versuchen, alles zu schaffen, oder brechen wir ab und es gibt einen Wettertag?

Da müssen wir dann auf einmal seeeehr förmlich werden, denn die Entscheidungen in der Sache können nicht warten, sie müssen getroffen werden, aber bitte auf Basis der richtigen Informationen, in der richtigen Reihenfolge und von den richtigen Leuten. Aber wie genau? 

Für die Info stellen wir sicher, daß wir möglichst schon vorab eine allgemein akzeptierte Autorität in Sachen Wetter etabliert haben – gar nicht so einfach je nach Drehland, zumal dann jede/r im Ernstfall noch die Alternativmeinung auf vier verschiedenen Wetterapps parat hat. Also Erstens: „Wer ist in meinem Drehland die anerkannte Wetterautorität? Was sagt die?“

Zweitens: Was ist unser Alternativszenario? „Wir treffen uns morgen früh wieder und versuchen den Rest zu drehen? Wir brechen für ein paar Tage ab und suchen einen anderen Drehort? Wir machen den Rest im Studio vor Grün?“ Dabei darf man gerne schonmal die Agentur mit einbeziehen. Und wenn das steht, holt man sich Drittens den Kunden dazu und bittet ihn um eine Entscheidung: Abbrechen und Überstunden vermeiden und das Alternativszenario aktivieren, oder weitermachen in der Hoffnung, daß man doch noch alles in den Kasten bekommt? 

Manchmal ist ein Abbruch alternativlos – so wie neulich im Hochsommer, als ich am Set auf freiem Feld stand und im Vordergrund die Gripjungs eine 6 Meter hohe Plattform für einen Topshot aufbauen sah, alles sehr professionell und aus bestem deutschen Aluminium, während im Hintergrund sich eine fette Gewitterfornt näherte. Ich hatte schon so eine sehr konkrete Vision davon wie ein einziger Blitz rund 300 Komparsen samt Team auslöscht… trotzdem habe ich dem Kunden das Gefühl vermittelt bekommen, daß eigentlich ER den Dreh abbricht, nicht Thor, der Donnergott. Und schon gar nicht ich. Nicht mein Job.  

Ein Wettertag ist ja grundsätzlich ein Problem des Kunden, wie wir alle wissen, und wie es allgemein akzeptierte Praxis ist. Das bedeutet aber nicht, daß das auch alle Agenturleute, erst recht nicht alle Kunden wissen, und darum schadet das gar nichts, da auch nochmal casually drauf hinzuweisen vorab, gern auch im PPM: „E-U-E-R Script sieht ja einen Außendreh vor. Wir werden eine möglichst wettersicheren Drehort vorschlagen. Das Wetter aber können wir nicht beeinflussen. Mehraufwand für einen Wettertag versuchen wir so klein wie möglich zu halten, werden ihn aber weiterberechnen müssen.“

Wenn es dabei große Augen auf Kundenseite gibt, sollte man sich den Agenturproducer zur Seite nehmen und ihn darauf hinweisen, daß er in der Sache doch bitteschön noch vor dem Dreh für Einsicht auf Kundenseite sorgen möge, damit die an ihrem Ende auch das Wissen in der Sache auf die entscheidenden Ebenen weitertragen und im Ernstfall schnell & kompetent & mit der nötigen Rückendeckung reagieren können. Nichts schlimmer als ein Kunde am Set, der in der Sache erstmal die MarketingsChefin anrufen muß…

Ich hatte mal einen Kunden, dessen Rechtsabteilung uns nötigen wollte, das Wetterrisiko als Produktion zu übernehmen, woraufhin wir ausschließlich Indoors Filme für ihn produziert haben. Geht halt nicht anders: so ein Wettertag kann dir schnell mal das Doppelte Deines MarkUps auffressen, dieses Risiko ist für eine Produktion im Ernstfall existenzbedrohend. Abgesehen davon ist es allgemein verbreiteter Konsens, daß wir als Produktion das Wetterrisiko ja nicht heraufbeschworen haben: Das kaufen die Kunden quasi mit ein, wenn sie sich für einen Außendreh entscheiden. Muß ihnen nur jemand (auf Agenturseite…) auch so sagen.

Auch könnte der Kunde sich eine Wetterversicherung leisten, die alles versichert, was man sich in Sachen Wetter so vorstellen kann: „Wir zahlen einen Wettertag, wenn an mehr als 5 Stunden am Drehtag der Himmel zu 80% bewölkt ist“. Geht. Machen die. Will nur keiner mehr bezahlen, und inzwischen kostet ja oft schon die Angebotslegung einer Wetterversicherung Geld (Hmm, sollten wir uns als Produktionen im Pitch vielleicht mehr an den Wetterversicherungen orientieren und eine Pitchgebühr verlangen? Hmmmm….).

Ich halte mich da mit Empfehlungen gern sehr zurück: Ich weise Kunden auf die Möglichkeit einer Versicherung hin und sage die Kosten dazu, Schlußaus. Habe aber tatsächlich jahrelang nicht mehr erlebt, daß das passiert – die Kunden nehmen lieber das Risiko eines weiteren Drehtags auf sich, als einer Versicherung vorab 20, 30tausend Euro in den Rachen zu werfen dafür, daß sie gegebenenfalls die Mehrkosten für einen Schlechtwettertag übernimmt. 

Kunden und Agenturen reden sich das gern mal schön aus der Ferne und vorab, wenn’s nicht grade um Margarinewerbung und Heile-Welt-Filme geht und sagen: „Ach so’n bisschen Regen macht uns nichts, das machts vielmehr so toll authentisch“ etc. 

Aber wir sind dann für die lästigen Details zuständig: Findet ihr es auch so toll authentisch,  wenn die Darsteller nasse Haare und blaue Lippen haben? Wenn das Tageslicht komplett wegsuppt und alles nicht nur authentisch, sondern nach Castrop Rauxel im Frühnebel aussieht? Wenn man nicht mehr mit Ton drehen kann, weil’s prasselt? 

Wir drehen halt keinen Dokfllm – wenn’s in einer Werbung regnet, dann ist das nicht bei schlechtem Wetter gedreht, dann hat einer die Regenmaschine dafür angestellt. Wenn das alle gern in Kauf nehmt, let’s do it, ich verteile Regenmäntel, ich bin ja im Service. Aber wie gesagt: dazu gehört es auch, euch die Details vorher einmal vorzuturnen und eine wettersichere Alternative vorzuschlagen.

Ihr Producerhasen wißt ja alle auswendig, wofür Zeile Nummer 7.319 unter „Location“ im Kalkulationsformular vorgesehen ist, die ihr nie mehr ausfüllt. Richtig: Wetterberichte. Weil es mal Wetterberichte vom Deutschen Wetterdienst exklusiv gegen Geld gab. Per Fax. Jetzt gibts -zig Apps, und die sagen meist alle was anderes. Das bedeutet, es hat mal eine eindeutige Autorität in der Wetterfrage gegeben: man hat auf Basis des DWD Berichts entschieden, fertig. Die Entscheidungsstrukturen waren also sehr überschaubar: 

„Drehen wir heute oder sagen wir wegen Schelchtwetters ab?“

„DWD sagt Unwetterwarnung, Sturmböen, Gewitter, Starkregen.“

„Wir sagen ab.“

Heute gibt’s bei 100 Leuten am Set 150 Wetterapps mit 200 unterschiedlich interpretierbaren Daten. Die Entscheidungsstrukturen möchte ich lieber gar nicht illustrieren… „Ich hab auf WINDFINDER aber was anderes gelesen“ etc… Ein klassischer Deadlock. 

Bei einem Dreh in Deutschland habe ich deshalb mal „Unseren Mann Im Tower“ erfunden. Genauer gesagt war ich das gar nicht, zumindest nicht allein. Den hat sich die Agenturproducerin eigentlich selbst eingebrockt. Sie fragte nämlich, ob ich nicht einen heißen Draht zum Flughafen hätte, sie hätte auf dem letzten Projekt über die andere Produktionsfirma immer Infos DIREKT aus dem Flughafen-Tower bekommen. In Wahrheit hab ich nur „Na klar, kein Problem“ gesagt, weil ich nicht schlechter aussehen wollte als die Konkurrenz; als sich dann aber herausstellte, daß eine solche Leitung gar nicht herstellbar war (wahrscheinlich hatte sie die andere Produktion auch einfach frei erfunden…) , konnte ich nicht mehr aussteigen aus dem Spiel. Ich habe mir also auf Basis des DWD Wetterberichts meine Meinung gebildet und dann jeweils verkündet, der Flughafen-Tower hätte dasselbe gesagt. KLASSISCHER Fall von „Autorität etablieren“ (siehe auch oben unter „Erstens“). Damit konnte ich dann alle nervösen, appbasierten Drama-Nachfragen zum DWD Wetterbericht wegwischen und diverse begründete Entscheidungen rechtfertigen. Ist gutgegangen, Thor sei Dank. 

Womit ich nicht dazu aufgerufen haben möchte, daß Ihr ab jetzt mit ausgedachten Geschichten euch Autorität anmaßen sollt, die ihr nicht habt. Es reicht eigentlich, wenn ihr Entscheidungen auf Sachbasis herbeiführt und sie dann auf der etablierten Kommandokette Kunde / Agentur / Produktion dramafrei durchdekliniert, ganz normales Producer-Business eigentlich.

Und immer an die alte Producerweisheit denken: „Hope for the best, prepare for the worst!“

Luftdruckfinetuning

Beim Gespräch über die richtige Kaffeemaschine für’s Produktionsbüro taten sich neulich zwei Fraktionen auf: die eine war mehr so die Fraktion „Ich mag Kaffee“. Die andere Fraktion hatte detaillierte Geschichten zu bieten von diesem einen Kaffeeladen in sagenwirmal San Francisco wo sie immer ein Barometer neben der Maschine stehen haben, um den Mahlgrad des Kaffees auf den Luftdruck in der Atmosphäre anzupassen. Oder war es der Druck in der Kaffee-Maschine? Und heißt es überhaupt noch Kaffee-Maschine? Ihr merkt schon bei welcher Fraktion ich eher zuhause bin.

Und tatsächlich ist das eigentlich ein guter Indikator dafür, ob man zum Producer taugt oder ob man vielleicht über andere Betätigungsfelder, gern natürlich auch in der Kreativindustrie, nachdenken sollte. Ein Producer ist für mich jemand, der einen guten Kaffee zu schätzen weiß; dem es aber gerne mal im Detail egal ist, wie der hergestellt worden ist. Der die Leute kennt, die wissen, wie & wo der hergestellt wird, und der am Ende auch sagen kann, was der Kaffee kostet. Und für wieviel man ihn einem Kunden weiterberechnen könnte und dabei noch einen soliden Schnitt macht.

Aber müssen Producer dafür zutiefst und wirklich selber begeistert sein davon, daß ein sicher interessant gekleideter Barista in San Francisco alle Viertelstunde aufs Hygrometer guckt, und müssen sie sich selbst jetzt auch so ein Ding in die Küche hängen? Müssen sie, mit anderen Worten, sich für jede Detailfrickelei, jedes Optimierungspotenzial, jede kreativ sich gerierende Distinktionsstrategie, für jede Art Kunstwollen interessieren und erwärmen? Nein, sage ich, das müssen sie nicht, die Producer.*

Eine gute Faustformel, sozusagen Ockham’s Razor für das Produktionsgeschäft ist doch vielmehr die Frage: „Lässt sich das in Excel abbilden“? Wenn nein…

So, darauf erstmal einen NesKaffee.

*Achtung, Producer-Nerd-Content: A propos Excel. Genauswenig wie Detailfrickelei für mein Kaffee-Erlebnis entscheidend ist, genau so wenig ist es für einen guten KVA entscheidend, ob es jetzt in Zeile 12.318 auch noch die Möglichkeit gibt, die Anrechenbarkeit von Catering für Inhouse-Mitarbeiter von den Verpflegungspauschalen abzuziehen und gegen die Per Diems zu verrechnen, es sei denn das heimliche Ziel ist „Death By Confusion“. Interessiert in Wahrheit niemanden, und macht niemandes Leben einfacher, gerechter, reicher oder präziser. Können wir uns vielleicht auf einen 3 Jährigen Optimierungs-Stop beim Kalkulationsformular einigen, und uns dann nach drei Jahren mal gegenseitig fragen: „Sollen wir da jetzt dringend was ändern, oder lassen wir’s einfach wie es ist?“ Ich würde eine Menge Geld wetten zumindest auf MEINE Antwort in der Sache.