Wer MACHT einen Werbefilm?

Eine ganz einfache, leicht zu beantwortende Frage, je nachdem, wen man fragt. Der Kreativdirektor, natürlich. Der Produzent? Die Regisseurin selbstverständlich! Aber ich spreche gar nicht von diesen bizarren Credit-Posts auf LinkedIn, Instagram et. al., wo immer mehr Väter des Erfolges zu sehen sind als man kennt, und immer die Hälfte der UmsetzerInnen zu fehlen scheint. Viel interessanter sind da die Verschiebungen, die ich im Prozeß beobachte.

FRÜHER ™, also grob gesprochen noch in den Nuller Jahren, habe ich auch aus den großen Kreativ-Agenturen quasi fertige Filme auf den Tisch bekommen, die wir „nur noch“ drehen mußten: jede Einstellung war gezeichnet und vom Kunden verabschiedet; so weit bereits ausdiskutiert, daß man die Storyboard-Frames als Animatic hintereinander gehängt und mithilfe von MaFo-Tests NOCH endgültiger gegen Kritik und Verbesserungen abgesichert hatte, bevor sie überhaupt an uns Produktionen, an eine Regie rausgegangen sind. Was haben wir gefightet um auch nur EINEN Frame zu addieren, oder gar einen zu verlieren! „Wir drehen die Alternative mal mit, vielleicht können wir sie ja im Schnitt davon überzeugen“, was für ein Kampf, was für ein Krampf!

Das gibt’s ja auch immer noch, und ich bekomme immer einen leichten Anflug von Nostalgie bei solchen Skripten. Dazu gehört aber zugegebenermaßen auch die harte Realität, dass das meist eher die nicht ganz so geilen Filme sind, die so daherkommen. Die Antwort auf meine  Eingangsfrage bei diesem Prozeß ist jedenfalls relativ einfach: den Film hat zu großen Teilen eigentlich schon die Agentur gemacht, und wir durften ihn „nur noch“ umsetzen.

Fast Forward 2023: Ich sehe gefühlt immer häufiger „Filmkonzepte“ aus seriösen Agenturen, die 150 seitige Keynotes sind. Mehr Fragen als Antworten. Kein einziger gescribbelter Frame, Storyboards oder gar Animatics weit & breit nicht in Sicht. Möglicherweise, weil die Agentur bereits alle Energie darauf verwendet hat, die Heilige Asset Liste zu vervollständigen („und dann noch 28x 10Sekunden Cutdowns für Insta; und die Youtube Prerolls nicht vergessen“)? Ist das Faulheit, Zeitmangel, Ratlosigkeit, „Schwächen im Abschluß“, wie das im Fußball heißt? Oder das Prinzip „Death by Zuballern“ – den Kunden mit einer so langen Präse beschießen, daß er nach Seite 100 die Hände hebt und sagt „jajaja, kommt wieder wenn ihr einen Film habt, ich kann nicht mehr“. 

Neiiiin, das ist es natürlich nicht! Ich will lieber an das Gute auch im Kreativen glauben und sage: das ist vielmehr jedes Mal die Chance für eine gute Regisseurin, die selbstverständlich von einer sehr guten Produktion gebackt wird, sich einen wirklich guten Film auszudenken. Denn, zurück zur Ausgangsfrage, wer macht dann den Film? Die, die das können: Regie & Produktion im Rahmen eines von der Agentur freundlicherweise im Vorfeld mit viel Arbeit etablierten Raums von Möglichkeiten.

Da kann, muß also das Machen wieder deutlich auf unsere Seite rüberwandern. Auch wenn uns keiner dafür bezahlt, daß wir uns den kompletten Film inzwischen regelmäßig from scratch selbst ausdenken (dürfen), ist das ja erstmal eine gute Sache, oder nicht?

In comes AI. Wenn das vielgefürchtete Animatic ein Angriff der Kreation auf die Exekution war – „schaut her, der Film ist quasi schon fertig!“, dann kann man mit generativer AI eine entgegengesetzte Bewegung beobachten, eine Art Angriff der Exekution, des Machens, auf die Kreation. „Was, wenn im Hintergrund Supermann durch‘s Bild fliegt und einen rosa Zwerg-Gorilla auf dem Highway absetzt, der mit Bananen um sich wirft?“ FRÜHER ™ konnten Kreative das nur denken & sagen; jetzt können sie das innerhalb von einer Viertelstunde auch schon visualisieren, MACHEN, und direkt den Effekt der bereits umgesetzten Idee ausprobieren. 

Und dann? Wenn das wirklich verkauft ist, braucht es nur noch jemanden, der’s auch nach allen Regeln der Kunst umsetzt, sprich: gut macht. Da hat mir neulich jemand aus einer befreundeten VFX Company etwas zugeworfen im Sinne von: „Goldene Zeiten kommen auf uns zu! Warum? Weil die Agenturen mithilfe der neuen generativen AI Tools den Kunden immer mehr sehr avanciertes, sehr ausgearbeitetes Zeug verkaufen, und anschließend händeringend nach Profis suchen, die das auf einem Profi-Level auch umgesetzt – GEMACHT – bekommen“. 

Yippieh! Oder? Wie auch immer: die Stellen, an denen der Film gemacht wird, und die Sichtweisen darauf – von Producern, von Regisseuren, von Kreativen – sind jedenfalls erneut gehörig in Bewegung geraten, und diese Bewegung wird sich nochmal rasant beschleunigen und verstärken.

Gehen Sie bitte weiter, hier gibt es nichts zu sehen.

Ich hab mich neulich mal beschwert darüber, daß ich ständig Roboter-Bilder sehe, die AI-Beiträge illustrieren und dort die AI verkörpern sollen, und das auch noch auf LinkedIn. Immer eine schlechte Idee, Streit auf LinkedIn anzufangen. Diesen habe ich eindeutig verloren: am Ende wurde ich aufgefordert, halt eine bessere AI-Allegorie vorzulegen – „touché“! Wir wissen immer mehr darüber, was generative AI produzieren kann. Wir haben aber weiterhin keinen blassen Schimmer, wie wir uns generative AI vorstellen sollen, wir haben kein Bild davon, und so greifen wir ständig auf die ältesten Klischees zurück, die man sich denken kann. Soviel übrigens zum Thema „AI reproduziert ja immer nur das, was sie schon kennt, woran sie trainiert ist, da kann ja nix Neues bei rauskommen“: uns Fleshbags („Trollhunters“, 2016) geht’s da ganz genauso.

Etwas, das so menschenähnlich mit uns interagiert wie ChatGPT, das muß doch aussehen wie ein Mensch! Ist ja auch nicht einfach, erst recht nicht, wenn man nur schnell eine einleuchtende Illustration für einen Linkedin Beitrag braucht. Natürlich wollen wir in die bildlichen Repräsentationen immer einen Reminder auf die Maschinenherkunft der AI einbauen. Wie soll da keine humanoide Blechkiste bei rauskommen?

Grob gesprochen sind 95% aller Versuche nur Variationen über die Robots aus „All Is Full Of Love“ (1997), die Chris Cunningham übrigens selbst entworfen hat – sein Musikvideo ist zu Recht in der Ständigen Ausstellung des MoMa gelandet. Die Robots unterscheiden sich ja von Maria, Fritz Langs Roboter aus Metropolis (1927), dem Vorbild für Lucas’ C3PO, nur im Style, sie sind 90ies slick, weiß und gefühlt Japanese statt expressionistisch, aber eben nicht grundsätzlich: humanoide Blechkisten auch sie. Da ist also nicht wirklich viel passiert in hundert Jahren, könnte man sagen.

Zugleich ist das ja geradezu rührend hilflos. Diese ganzen Robots sollen uns trotz allen Alien-Terminator-Transformer-Schauers eine gewisse Sicherheit bescheren dahingehend, daß immer noch ein menschenähnliches Gegenüber mit uns interagiert; ein Gegenüber, wie wir uns uns selbst immer vorstellen, als Individuum, als eine abgeschlossene Entity.

Spätestens da kippt dann das Falsche ins Fahrlässige, weil wir uns auf diese Weise nur vor der Erkenntnis verstecken, daß es da eigentlich nichts zu sehen gibt. AI ist eben kein Individuum, AI ist nicht EINS. Kevin Kelly („The Inevitable“, 2016) knows best, Leute: „Conventional wisdom held that supercomputers would be the first to host (ai), and then soon enough, we’d add consumer models to the heads of our personal robots. (…) However, the first genuine AI will not be birthed in a stand alone supercomputer, but in the superorganism known as the net. (…) The AI on the horizon looks more like Amazon Web Services.”

Achtung, anschnallen bitte für den weit hergeholten Vergleich: Ein paar der monotheistischen Religionen haben es geschafft, die Idee eisenhart durchzuziehen, dass man seinen Gott nicht darstellen, ja, ihn sich nicht einmal VORstellen dürfe. Die Christen haben da zwar „jaja“ gesagt, „du sollst dir kein Bildnis machen“, aber dann haben sie Michelangelo et. al. rangelassen. Das sollten wir in Sachen AI vielleicht vermeiden, ein Gott mit Rauschebart ist eigentlich genau so daneben wie AI als Roboter. Lasst uns stattdessen mal den Mut haben, uns AI nicht zu visualisieren (was ja für uns Werbefilmmenschen eine ganz besonders schwieriges Projekt ist), zumindest nicht mehr als Chris Cunningham Roboter, bitte.*

Die meines Erachtens beste Analogie stammt erneut von, ihr ahnt es, Kevin Kelly: in der industriellen Revolution haben viele Unternehmer ein Vermögen gemacht, indem sie bekannte Produkte elekrifiziert haben: Ein Bügeleisen, aber mit Strom. Ein Rührgerät, JETZT NEU! Mit Strom etc. Den Strom dafür haben sich diese Erfinder-Unternehmer besorgt als vorfabrizierte, unsichtbare, netzbasierte Ressource, jederzeit anzapfbar. Mit unseren aktuellen Tools passiert gerade dasselbe: Photoshop, jetzt mit generativer AI. Und die bleibt, wie zuvor der Strom auch, unsichtbar.

Schaut Euch mal den TED Talk von Imran Choudhri an, der jahrzehntelang Designer bei Apple war. Seine Vision für eine neues Tool, mit dessen Hilfe wir mit AI interagieren können, ist in allem das Gegenteil der Facehugger-Apple Brille. AI wird uns, wenn man Choudhri folgt, garantiert nicht als Roboter entgegentreten; seine Vision ist vielmehr „technology needs to disappear – to re-allow us to be present“. Für mich so viel sympatischer als alle anderen Techonlogie-Ansätze, die ständig etwas Neues basteln, das sie zwischen mich und die Welt schieben wollen (Screens vor oder in meinem Gesicht, Kopfhörer in meinen Ohren, Kabel im Gehirn etc.) Choudhri hat stattdessen ein minimalistisches wearable device entworfen, das uns als Interface dienen soll, um uns AI als eine Art persönlichen, sprechenden Assistenten zur Seite zu stellen. Da gibt es literally nichts zu sehen – weniger Roboter ist kaum denkbar.

*PS: An einigen Reaktionen habe ich bemerkt, daß ich da vielleicht eine falsche Fährte gelegt habe: Ich wollte überhaupt nicht andeuten, AI habe übermenschliches, gar göttliches Potenzial. Noch sind WIR ja diejenigen, die etwas nach unserem Bilde geschaffen haben, nicht umgekehrt. Ich wollte lediglich darauf hinweisen, daß es eine solide kulturgeschichtliche Leistung ist, nicht immer alles gleich zu anthropomorphisieren, und daß man sich daran auch in Sachen AI halten sollte, auch wenn es einem dann schwerer fällt, LinkedIn Beiträge zu illustrieren.