Hervorgehoben

Cartoon Physics

Da hat grade ein Regisseur einen Cosmetics Film mit Hilfe einer AI „nachgedreht“, den er vor einem Jahr mit 30 Mann Team und jeder Menge Realdrehaufwand hergestellt hat. Netterweise hat er an die AI-Version eine Side-By-Side Comparison angehängt vom Original und von der AI Version.

Man kann da jetzt wieder mit dem Profi-Auge draufschauen und konstatieren, dass ja das Original total super individuell und kreativ sei, und dass die AI Version dagegen total generisch sei und ihr die letzten 5% an Rafinesse und Human Touch fehlten, die das Original so fantastisch machen. Das ist das, was verlässlich jedes Mal passiert, wenn ich mit anderen Branchenprofis das Thema diskutiere.

Das kann man noch 100 mal machen, so wie man auch gesagt hat „Digital drehen? Aber nie im Leben für Beauty Filme“. Aber wie oft noch?

Man kann das aber auch abkürzen und sich nur mal so probeweise mit folgendem Gedanken anfreunden:

Generative AI ist so weit. Die kann immer mehr insbesondere von dem generischen Bewegtbildkrempel umsetzen, der 95% dessen ausmacht, was da draußen noch immer mit riesigem Aufwand in die Welt gesetzt wird.

Und, daraus abgeleitet: Der immer kleiner werdende Unterschied zwischen Realdreh und AI Film interessiert mit Ausnahme von uns Branchenprofis wahrscheinlich immer weniger Konsumenten, und das sind diejenigen, für die das produziert wird. Das ist weder Zynismus nach Konsumentenverachtung, das ist eine sich abzeichnende Realität.

Was genau können wir als Producer nochmal? Eigentlich nur zweierlei: Wir können die Kreativen finden, die perfekt eine Idee, ein Skript zum Leben erwecken werden. Und wir beherrschen die Workflows, mit deren Hilfe diese Regie dann aus einem Skript und einem Budget einen erfolgreichen Film macht. Eine dieser beiden Kernkompetenzen scheint mir grade massiv im Umbruch zu sein.

Ihr kennt sicher den visuellen Standard-Witz aus diversen Looney Tunes Cartoons: Wile E. Coyote rast über die Klippe hinaus und rennt noch ein paar Meter weiter in der Luft über einen tiefen tiefen Abgrund, als wäre die Klippe noch da – erst als er sieht, dass er mitten im Nichts schwebt, stürzt er ab. Wenn ich jetzt abschweifen wollte, würde ich einen kurzen Exkurs über das hochinteressante Feld der Cartoon Physics einbauen (Law 1: „Any body suspended in space will remain suspended in space until made aware of its situation.“ etc.)

Das sollten wir aber in der Welt der Commercial Production Physics tunlichst vermeiden: daß wir einfach immer weitermachen als wäre nichts, während unter uns unsere Workflows wegbröseln und wir merken es erst, wenn wir schon mitten in der Luft schweben.

Hervorgehoben

AI Director im Interview: Martin Haerlin

Vor Kurzem noch habe ich darüber halluziniert gebloggt, daß in Zukunft immer mehr Filme von Centauren gemacht werden, wie sie beim Schach heißen: von Kombinationen aus Menschen und AIs. Und dann finde ich doch tatsächlich einen solchen Centaur in meinen Feeds: Martin Haerlin, Regisseur seines Zeichens, der seit einiger Zeit tolle AI Filme und Werbung macht. Den hab ich ruck-zuck gleich mal interviewt für Euch:

SP: Martin, du kommst aus dem klassischen Werbefilm als Regisseur. Was hat dich bewogen, mit AI loszulegen und die Filme zu machen, die du bisher gemacht hast?

MH: Also die wichtigste Zutat um bei KI eingestiegen zu sein dieses Jahr ist, dass man in der Werbung arbeitet und Anfang des Jahres nichts zu tun hatte. Ich habe früher mal programmiert und habe mich wieder darauf zurück besonnen: Ich hab angefangen zu programmieren. In Python, aber auf ’nem Low Level; Habe auch angefangen mich in Machine Learning reinzubasteln, kleine Kurse angeguckt und dann stieß ich auf Runway, diese Plattform die ja Machine Learning basiert ist, und wo du Videos generieren kannst. Damals war nur die GEN 1 verfügbar, wo du Videos re-stylen kannst. Ich glaube, dass mir mein Programmier-Monat am Jahresanfang die Angst genommen hat, mich damit auseinanderzusetzen.  Wäre ich jetzt im Werbesaft gestanden und hätte rund um die Uhr gedreht, dann hätte ich mir die Video KI gar nicht angeschaut.

Und ich konnte plötzlich meine eigenen kleinen Geschichten erzählen, ich musste noch nicht mal nach draußen! Es war einfach fantastisch, und dann kam in Juni GEN 2, wo man Text eingab, und dann ein Video entstand, wie bei Midjourney mit Stills ging das jetzt plötzlich mit Bewegtbild. Dann habe ich da wöchentlich einen Film gemacht, aber auch Stunden am Tag am Rechner verbracht.

SP: Kannst Du beschreiben, wie sich deine Rolle verschoben hat im Vergleich zu einer klassischen Filmproduktion? Hast du ja schon getan, du sagst „du und dein Rechner, das war’s“, oder?

MH: Es ist es ist deutlich weniger glamourös; man sitzt bucklig vorm Rechner und bastelt vor sich hin. Als ich angefangen habe im April, da haben ganz viele Leute Runway schon benutzt, aber es waren eher so die Computer Geeks, und die haben dann die zehn schönsten KI generierten Explosionen releaset.  Das hatte für mich aber erstmal keinen Use Case; es gab kaum jemanden, der Storytelling macht und KI benutzt. Und deswegen konnte ich mit meinen Filmen eine Leerstelle ausfüllen.

Mit anderen Worten: es ist irre wichtig dass man Storytelling kann, sei es als Werbe-Regisseur oder als Spielfilmregisseur, oder als Schriftsteller, und das dann kombiniert mit einem oder mehreren KI-Tools.

SP: Wie wir sehr fehlt dir der Input der anderen Department also Storyboarder, Production Designer, Kamera und so weiter?     

MH: Der Input der klassischen Departments funktioniert im Moment noch nicht in der KI-Welt. Man kann nicht sagen „Ich möchte genau so ein Wohnzimmer“, „Ich möchte genau so ein Licht“ „Ich möchte genau so eine Aktion“.

Sämtliche KI-Plattformen quatschen mit rein und machen ihr Zeug damit. Das heißt, du triffst immer wieder auf Begrenzungen, wo du dich drumrum arbeiten musst. Was aber wichtig ist, ist der Input anderer KI Leute. Ich bin überrascht wie freundlich und unterstützend die KI Community ist vor allem auf Twitter. Ich hab wieder unheimlich viel Input, aber von anderen Leuten. Welche Kamerabewegungen gehen; welche Prompts funktionieren gut; welche schlecht; was kann man ohne viel Aufwand mal eben generieren und was braucht ewig. Das heißt, der Austausch hat sich nur verschoben.

SP: Sind das Leute die wie du einen Regie-Background haben, oder ist das deutlich bunter?

MH: Ich bin einer der wenigen, die da wirklich mit seinem Klarnamen herumhantiert. Die meisten haben irgendwelche Avatare und dementsprechende Namen, aber ich glaube, dass viele aus dem Filmbereich kommen. Art Direktoren, Regisseure, einer kommt von der BBC – schreibt er – ich finde man merkt relativ schnell wo sie herkommen, wenn man deren Arbeiten sieht. Leute die wirklich Storytelling machen, die müssen aus dem Bereich sein. Die setzen sich mit Bildern auseinander. Es gibt aber auch ganz viele die machen Tests, die zeigen dann den Fallschirmsprung, den sie in KI gerechnet haben; und das hat ja auch seine Berechtigung. Ich merke: Soundso könnte man etwas erzählen. Die, die mich faszinieren, kommen wahrscheinlich aus einem ähnlichen Bereich wie wir.

SP: Die Arbeitsteiligkeit ist ja trotzdem komplett verschwunden, wenn du als Chimäre mit deinem KI Tool zusammenarbeitest. Welche der klassischen Rollen gibt’s da zukünftig für dich eigentlich? Gibt es eine Rolle für einen Producer in diesem Setup?

MH: Was ich mach ist wirklich nur auf sehr kleinem Level. Man könnte deutlich bessere KI Filme machen, wenn man im Team arbeitet. Wenn man einen Producer hat, der das kalkuliert. Wenn man einen Kameramann hat, mit dem man was zusammen dreht & das dann restylet; und dann aber auch noch in einem Text to Video Tool die Establisher macht. Eigentlich geht es mir darum zu zeigen, „Hey, KI kann ’ne Menge; Aber bitte nicht ab jetzt alle Spots in KI generieren“.

KI ist ein mächtiges Tool, mit dem man prävisualisieren kann, aber in Zukunft auch ganze Shots ersetzen kann, wofür früher die Kohle oder die Zeit nicht gereicht hat. Du kannst deine Filme viel größer machen; emotionaler, intensiver. Eigentlich gehts mir nicht darum, Departments zu ersetzen, sondern Enhancement durch das KI-Tool zu bekommen.

SP: Gestern bin ich über einen AI Film von Cadmo Quintero gestolpert, der hat klassische Departments mit reingenommen: Sören Görth hat geschnitten, DIE ZWEI haben Musik gemacht, und man merkt sofort den Input der anderen Departments. Das Heavy Lifting übernehmen in diesem Film geradezu der Schnitt und die Musik. Das macht einen Riesenunterschied.

MH: Hab ich gesehen, finde ich richtig toll. Wir haben unterschiedliche Herangehensweisen glaube ich – mir geht es erstmal darum zu zeigen, du kannst es als One-Man-Show schaffen. Ich mach absichtlich Low Tech. Ich hab in meinem letzten Re-Styling-Film absichtlich ein  Stöckchen benutzt, ich hätte auch eine Pistole nehmen können, ich habe aber extra ein Stöckchen genommen und das zu einer Pistole re-stylen lassen, ich will, dass das alles handgemacht aussieht.

Wenn da noch mehr Regie- oder Kamera Kolleginnen einsteigen würden… wir haben alle so einen Vorsprung was Filmsprache angeht, das beeinflusst den Output. Wir wissen wie wichtig Sounddesign ist, wie wichtig ’ne Close und ’ne Weite Einstellung im Wechsel sind, wir könnten richtig tolle KI Filme machen, es benutzen aber noch extrem wenige. Das ist so ein bisschen wie „Don’t Look Up“: Es WIRD kommen. Und man MUSS sich damit auseinandersetzen. Zu sagen „Ich mach’s nicht“, das ist echt gefährlich.

SP: Deinen LowFi Ansatz finde ich persönlich wahnsinnig interessant. Das was Cadmo gemacht hat, ist für mich so das Naheliegendste; das ist so ein Post Production SciFi Future Dystopia Sujet Ding, da werden die Leute vielleicht sagen „Naja, das hätte man früher in 3D gemacht oder in der Unreal Engine, jetzt macht’s halt ’ne KI, wo ist der große Unterschied?“ Aber bei dem, was du machst – das machst du nicht in UnrealEngine. Der Ansatz ist ein ganz anderer. Den finde ich persönlich total spannend weil es einem dieses Gefühl vermittelt „Geil! Let‘s Go! Ich brauch das alles nicht, film film film!“

MH: Genau! Diese Attitude möchte ich rüberbringen. Ich will es nicht als NOCH schwieriger hinstellen. Nicht: „Oha, wenn ihr KI macht, Freunde, daaaaannn langsam…“ Ich veröffentliche auch immer meine Herangehensweise.

SP: Ich habe vor allem Angst davor, dass die Industrie das vereinnahmt und sagt „uh, oh, da brauchen wir jetzt aber erstmal ein halbes Jahr“, und dann ist das wieder so wie beim Switch von Filmmaterial zu digital: du sagst “Geil, ich  muss diese blöden Filmrollen nicht mehr rumtragen und entwickeln und abtasten, Yippie!“ aber dann kommt gleich: du brauchst einen DIT; und du drehst 10x so viel Material; hast doppelt soviel Edit-Zeit etc. Da hat sich der Alte Prozeß gleich wieder so breit gemacht in dem neuen Medium, dass der Unterschied zwischen Alt und Neu sofort wieder verschwunden ist. Also die ganzen Vorteile. Darum finde ich deinen LowFi Ansatz so toll: Das macht Spaß, und das merkt man.

MH: Der Spaß ist dabei wahnsinnig wichtig, dass man andere inspiriert und ansteckt. Dass sich die Industrie da sofort wieder breit macht: Ich hoffe dass das nicht passiert.

Man muss im Moment mit KI noch sehr vorsichtig sein weil es den gesamten Prozeß der Werbung auf den Kopf stellt. Während es bei Werbung immer um Kontrolle ging – Fitting, Abnahme wie das Essen aussieht… Wir versuchen, den Zufall möglichst auszuschließen denn der Kunde hat all sein Geld zusammengekratzt und da soll dann die Schokolade fließen und die Butter schmelzen, und da darf nix schiefgehen. Und das geht mit KI nicht mehr. KI wird das auf den Kopf stellen. Wir müssen uns da mit dem Zufall, der Spontaneität arrangieren. Und ich glaube, dass sich dieser Prozeß in der Werbung durchsetzen wird. Parallel zur üblichen Kontrolle. Sone Marke wie Dr. Oetker wird nicht so schnell auf KI aufspringen; aber eine Lifestyle Marke wie H&M oder Zalando. Wenn ich sehe wie ein Model in Pink gekleidet an einer Tischtennisplatte vor einer grauen Betonwand vorbeiläuft, dann ist das ein Bild, was ich bald in KI umsetzen kann. Und dann kriege ich vielleicht eine Person, wie sie vielleicht nicht ganz im Zalando Katalog zu finden ist; aber sie hat trotzdem was Interessantes. Es wird ein neuer Prozeß entstehen, wo man Spontaneität wieder zulässt und wo man zu den Anfängen der Werbung zurückgeht, wo man einen Künstler engagiert hat und gesagt hat: „Mach uns mal in deinem Style etwas für meine Marke.“ Und da ist dann jetzt eben der KI Künstler, und dem sagt man “Mach doch mal mit deiner KI einen lustigen Film für XY“ Und dann machst du was und zeigst es denen und das ist eine total schöne Vorstellung und Zukunft, auf die ich mich freuen würde.

SP: Bin ich total bei dir. Hast du schon ein kommerzielles Projekt mit KI umgesetzt?

MH: Es kommen wahnsinnig viele Anfragen. Es ist im Moment noch schwierig, weil die immer noch die volle Kontrolle wollen. Ich hatte eine Anfrage einer Versicherung aus USA, die KI sollte da eine Traumsequenz generieren von einem PIXAR-Mädchen, das Fußball spielt. Da habe ich gesagt, den eigentlichen Film muss man normal drehen, aber von der Animation könnte man große Teile wenn nicht alles in KI machen. Da würde ich mich dann hinsetzen und das VOR dem PPM so weit vorbereiten wie möglich, damit man dann nicht erst nachher merkt, dass man die Szene wie der Fuß den Ball kickt gar nicht hinbekommt in KI, was tatsächlich nicht möglich ist. Aktionen sind noch wahnsinnig schwierig.

Ich spreche jetzt beim ADC im November; bin mit einer Argentinischen Agentur am diskutieren. Deutsche Agenturen haben sich wenige gemeldet bisher. Mit Wiedemann & Berg habe ich gesprochen.

SP: Ich beobachte die Reaktionen, da gibt es ein breites Spektrum. Andre Aimaq hat da beispielsweise auf LinkedIn bedauert, dass die Agenturen nicht streiken wie die SAG Darsteller und als Forderung formuliert, dass AI Kreationen als solche gekennzeichnet werden müssten; und am  anderen Ende des Spektrums sind dann Menschen wie du oder der lustige John Finger, der auch dieses Let’s-go-for-it Ding laufen hat – wie siehst du diese Diskussion?

MH: Schwierige Diskussion. Seit Jahrzehnten werden in Hollywood Menschen über VFX dupliziert. In Mittelerde sind nicht 40.000 Orks gerannt, und der Film ist 25 Jahre alt. Es gab da schon immer Tricks. Die SAG Geschichte – so wie ich sie verstehe – ist, dass es darum geht, dass Komparsen von KI ersetzt werden.

Ich hab neulich mit einem Synchronsprecher dieselbe Diskussion geführt. Meine Kinder haben mal Synchronsprecher 2 Sätze für Netflix gesprochen. Sowas wird ziemlich sicher von KI ersetzt werden. Da muss ich aber auch sagen: Da geht kein Kunstform flöten. Das waren Teenager, keine Synchronsprecher auf einem hohen Level. Die werden in absehbarer Zeit nicht ersetzt werden. Die ganzen Nuancierungen kannst du so nicht Prompten. Das gleiche gilt für Schauspielerei. Wenn Komparserie verschwindet, verschwindet auch da keine Kunstform, sondern ein total netter Nebenjob.

Menschen können nur von Menschen gespielt werden, wenn sie eine emotionale Rolle haben, aber wenn man 20.000 Menschen zeigen will, die mit Schwertern herumrennen, dann kann man natürlich KI benutzen. Da verschwinden Jobs, die vor 120 Jahren auch im Handwerk verschwunden sind.

Du kannst auch jetzt einen handgewebtem Teppich aus der Manufaktur haben, aber auch einen Teppich von IKEA.

Und dasselbe wird es auch bei uns geben: Handgefertigte Filme von toller Crew gemacht; oder maschinengemachte Filme und Kreation. Das wird in diese zwei Kategorien zerfallen.

SP: Hast du Empfehlungen wo man dranbleiben sollte?

MH: Jon Finger ist toll.  Nikolas Neubert hat einen tollen Trailer gemacht, Christian Fleischer hat einen der ersten Gen2 Filme gemacht: THE GREAT CATSPY. Als ich das gesehen habe war ich so begeistert. Auf Twitter gibt es eine tolle Community, unbedingt einen Account holen. Aber, Rückfrage, wie siehst du das denn mit KI & Jobs ersetzen?

SP: Der kommerzielle Druck, das umzusetzen, was möglich ist, ist so groß, dass du dich nur entscheiden kannst, mitzumachen oder den Laden abzusperren. Wir als Werbefilmproduzenten sind überhaupt nicht in der Position, da Forderungen aufzustellen. Das klingt vielelicht defätistisch, aber wir drehen unsere Werbefilme auch im  Ostblock, weil da der Oberbeleuchter nur die Hälfte kostet. Das ist so. Das kann man Scheiße finden, aber man kann sich nur entscheiden, da mitzuspielen oder raus zu sein. Das muss man sich natürlich immer wieder neu fragen: „Mach ich DABEI dann auch noch mit, oder lasse ich’s dann lieber sein?“

Ich glaube, das wird sich verschieben, das Nicht Ersetzbare wird immer weniger werden – was muss man mit echten Menschen machen? Immer weniger. Das frisst sich ja schon von unten in unsere Departments rein. Stock Footage, Moodscouts, Storyboards, in die Kreation selbst – JVM hat grade eine KI Hyundai Kampagne gemacht. Das kommt aus allen Richtungen auf uns zu. Und die wirtschaftlichen Incentives, das zu machen, sind so stark, wie wir’s beim Switch zu digitalem Drehen erlebt haben, und das in Potenz. Da geht’s nicht darum, dass man jetzt 1.500 Euro für eine Abtastung spart. Da geht’s darum, dass man bestimmte Filme so macht, so wie Martin Haerlin sie jetzt schon macht, nämlich als One-Man-Show in einer Woche am Rechner. Mit einer guten Idee und einer guten KI und Feierabend. Da brauchste nicht nach Kapstadt weil das Wetter da schön ist im Winter.

MH: Was jetzt easy geht ist: du kannst jetzt einem Weingut einen 30-Sekünder über Trauben im Herbst machen. Das würde dich eine Stunde kosten, und die können das auf ihre Social Media Seite stellen. Man kann also jetzt auch Filme machen für alle die, die sich bisher keine Filme leisten konnten.

SP: Ich glaube diese positive Vision gibst da auch, dass sich da ganz viele neue Arten ergeben werden, mit denen man sein Geld verdienen kann. Es wird Zugang geben für Leute, die vorher keinen Zugang hatten. Die Location Scout geworden sind, obwohl sie vielleicht ein besseres Auge haben als mancher Kameramann. Da werden die Karten neu gemischt. Und es werden Jobs entstehen, die wir uns noch nicht vorstellen können, genau wie sich die Pferdekutscher den Tankwart noch nicht vorstellen konnten.

MH: Ich bin nach wie vor verblüfft wie klein das Interesse aus Deutschland ist.

SP: Ich hab’s am eigenen Leib erfahren. Ich hab THE GERAT CASTPY gesehen und gedacht „Also jetzt schlägst dreizehn“. Das habe ich allen geschickt, die mir einfielen und hab geschrieben: „Ihr MÜSST EUCH DAS ANGUCKEN. So in Stresser-Großbuchstaben. Das wird sowas von unser aller Business umschmeißen…“ Ich habe eine einzige Reaktion bekommen von einem anderen Producer, der schrieb: „Naja, da musste ja noch 150.000 reinstecken damit das wirklich gut aussieht, das wird niemals was werden“.

MH: Das ist so wie man immer dachte dass ein Computer so groß sein muss wie ein Wohnwagen.

SP: Ja, die Beharrungskräfte, ich weiß nicht ob aus Angst oder aus Betriebsblindheit, die sind da doch sehr stark. Wo ist eigentlich die erste AI Filmproduktion? Naja, ich hab sie ja auch noch nicht aufgemacht… Aber DU machst das! Darum Kudos nochmal dafür, das macht viel Spaß, ich bleib da dran. Danke nochmal für das Gespräch!

MH: Danke Dir!

Arbeitsteilig

Einen Location Scout hatte ich mal mit dem shooting board zum scouten geschickt, und der hat aus reinem Spaß an der Freud schonmal den gesamten Film vorgedreht auf den Locations, die er vorgeschlagen hat. Er war dann ganz geknickt, als wir stattdessen in der Studiostraße in Babelsberg drehen mußten, weil für ihn der Film eigentlich schon fertig war. Kennt ihr bestimmt auch, solche Leute: Filmemacher durch und durch, die eigentlich nur aus Zufall in ihrem Department gelandet sind, die es aber in sich tragen, ganze Filme in ihrem Kopf und manchmal auch in echt schwuppdiwupp einfach fertigzumachen.

An diesen Scout mußte ich denken, als mir neulich dieser Film von JON FINGER begegnet ist.

Wer sich das anschaut und nicht denkt: „Wow! Will ich auch!“, der ist auf jeden Fall nicht aus derselben Abteilung wie mein Scout damals. Mir macht das wahnsinnig Spaß, diese (natürlich gefakte…) Unmittelbarkeit, diese Idee, man könne mit Hilfe von AI Tools einen Film erschaffen so, wie man früher seinen Freunden auf dem Schulhof eine Geschichte vorgeturnt hat. Was ergäbe das, konsequent weitergedacht, für einen Spitzenworkflow! Erst recht dann, wenn man unseren realen Workflow dagegenhält, der ja wirklich gern mal das Gegenteil davon ist: Überkompliziert, langsam, und seeehr seeehr arbeitsteilig.

Wie arbeitsteilig wollen wir denn sein, muß man sich doch regelmäßig fragen. Na klar ist der Input von den Profis aus den einzelnen Departments super. In den Kommentaren unter Jon’s Film stapeln sich deshalb auch die erwartbaren Reaktionen im Sinne von „Nichts wird je einen guten Storyboarder/ Art Director / DOP ersetzen, etc., gnagnagna“. Aber mal ehrlich, kennt ihr nicht auch dieses Gefühl der Ermüdung, das einen anpackt, wenn man denkt: „Woo-ha, 4 Tage 14 Stunden drehen, 70 People am Set, 2 Monate Post, und das alles für 60 Sekunden Film?“

Bei den Regisseur*innen kennt ihr sicher auch die beiden Enden des Arbeitsteiligkeits-Spektrums: Die eine, die immer vor dem Monitor sitzt und sagt: „Schon ganz geil, aber können wir noch eine drehen“? Wo man sich unwillkürlich fragt ob sich heimlich die Agentur-Kreative in den Regiestuhl geschmuggelt hat? Und am anderen Ende der Skala der Roberto Rodriguez Style Regisseur, der unabgesprochen mit einer eigenen Mühle am Set auftaucht und schnell selbst mal noch ein paar alternative Takes dreht, kann man ja immer gebrauchen, ihr werdet mir dankbar sein im Schnitt! Der einen im Prep schon so sehr mit Detailgesprächen zuballert, daß man ihm am liebsten alle Jobs auf der Produktion anbieten möchte inklusive dem der Produktionsleitung?

Anyways, ich möchte gar nicht auf „Wir werden alle unseren Job verlieren“ Szenarien rumreiten. Auch das pixelschubserische Qualitätsgejammer anläßlich von Jon’s Film – „Ja, aber das wird dir kein Kunde jemals so abnehmen, weil a,b,c“ kann ich mir selber ausdenken, merci bien.

Ich finde es beim Zuschauen in erster Linie inspirierend & herzerfrischend, welche Möglichkeiten sich hier aufzeigen für einen alternativen, schnelleren, spontaneren Workflow – direkt aus dem Kopf von jemandem, der sich einen Film ausdenkt, schwuppdiwupp zum fertigen Film.

Oder?

Do Producers dream of AI enabled films?

Consumer können mehr und mehr selbst zu Producern werden, wie ich’s neulich schon bebloggt hatte. Sie müssen dafür nicht gleich ganze Filme from scratch produzieren, sie können sich zukünftig auch anhand bestehender Filme aussuchen, wie, auf welchem Level und in welchem Department sie gern in einem Film eingreifen und ihn auf diese Weise neu oder mitproduzieren wollen. Sie können sich gewissermassen so Film School mässig von der Seite des fertigen Films her an das Produzieren heranrobben.

Ich zum Beispiel verabscheue ja den seifigen und einschläfernden Vangelis-Soundtrack zu BLADE RUNNER. Das Netz ist voll von sehr emotional geführten Debatten dazu – mir versaut er tatsächlich den kompletten Film.

Die Producer’s Notes, die Ridley Scott nach seiner 3. Schnittfassung zu lesen bekam, fragten unter anderem nach „more tits“, und schon im ersten Satz: „Where is the Vangelis Music“? Die haben sie leider am Ende bekommen. Wenn ich jetzt aber in naher Zukunft Ridley Scott rächen und den Soundtrack einfach austauschen könnte: „Hey AI, unterlege mir bitte BLADE RUNNER mit einem Soundtrack im Stil der Talking Heads“? 

Zunächst hab ich ja gedacht, daß uns demnächst AI mit Reglern beim Produzieren hilft, also etwa Midjourney mit speziellen Reglern, an denen ich Brennweite, Einstellungsgröße und soweiter finetunen kann. Aber vielleicht ist es genau so spannend, wenn es analog zum Sound und Farb – Reglern an der Glotze ein paar zusätzliche AI Regler gäbe wie den „Wes-Anderson-Style-Regler“; den „Hauptdarsteller“- Regler; den „Synchronsprache“-Regler?

Das passiert ja eh bereits massenhaft, die Travestie bestehender Filme ist ein riesiges Sub-Genre des generativen AI Outputs. DUNE im Stil von Jodorovsky (der tatsächlich mal einen Anlauf dazu unternommen hatte). ALIEN im Stil von Stanley Kubrick. Und JEDER DENKBARE FILMTITEL im Stil von Wes Anderson, natürlich. Das ist beileibe nicht ohne Vorbilder aus der Vor-AI-Zeit: Der Kern des Erfolgs von NETFLIX beruht auf NETFLIX‘ Fähigkeit, Travestien und Genre-Remixes nach Uservorlieben herzustellen: „Die User gucken am liebsten Politthriller und Kevin Spacey? Dann produzieren wir ihnen einen Politthriller mit Kevin Spacey!“ Aber AI ist jetzt auf dem Weg, mehr und mehr dieser eigentlich originären Producer-Tools an die Consumer selbst auszulagern. 

Schauen wir uns das auf Basis bereits existierender Filme an. Was daran macht AI auf einmal „anfassbar“ für uns Consumer? Nehmt mir für einen Moment bitte einfach ohne weitere Link-Belege ab, daß das alles bereits erkennbar möglich ist mit AI Consumer Tools, und daß da nur noch jemand rasch ein Frontend mit ein paar Reglern entwickeln müßte bitte, an dem man all diese Faktoren gleichzeitig tweaken kann, und die AI spuckt ruckzuck nach zwei Stunden Rechenzeit einen neuen Film aus:

_Darstellerauswahl: Niemand braucht mehr MoCap, das geht auf Basis von bestehendem Video Material. Also Hauptrollen austauschen. Nebenrollen austauschen. Alle Darsteller sollen Männer sein. Frauen. Frösche.

_Musik: Easy. Ging ja schon vorher, aber jetzt trennt einem die AI auf Wunsch die einzelnen Instrumental-Spuren; das Voice Over von der Musik und den Sound FX. Also anderer Komponist; nur Instrumentals; Orchesterversion statt Surfgitarre… Das kommt als erster AI Regler sobald die Rechtefragen geklärt sind, Wetten werden noch angenommen.

_Sprache & Sprecher. Gedubbt haben die Produzenten schon früher, aber jetzt können wir’s selbst. Und die AI trennt nicht nur die Spuren dafür, sie generiert nicht nur neue Stimmen, sie passt auch die Mimik & Mundbewegungen der Darsteller an die gesprochen Sprache an. Also Saturday Night Fever mit meiner Stimme für John Travolta, und alle anderen Stimmen von Olivia Newton John.

_Art Department: Eigentlich einfacher als MoCap. Also alle Möbel sollen bitte Art Deco sein. Philipp Starck Design. Giger.

_Styling: Alle tragen Kaftane. Oder nichts. Taucheranzüge. 20er Jahre Klamotte. 

_Location: alle Strassenszenen & Häuser Exteriors Hong Kong statt Detroit. Der Wald wie in Neuseeland. Dänemark. Ägypten.

_Framing: AutoFill machts möglich, ich habe schon völlig sinnbefreite erste AI Versionen von BladeRunner im Hochformat gesehen, aber hier geht’s ja nicht um meinen eigenen Geschmack, also bitte 9:16 für alle die das interessiert, was ich lange Zeit nicht glauben konnte, scheint aber so’n heißes Ding zu sein mit dem senkrecht gucken.

_VFX: Mehr so STUDIO GHIBLI, weniger so AVENGERS… 

_Und natürlich alle Kombinationen aus den obigen Beispielen und diverse andere Details, die Leuten wichtig sind. 

Ein Beispiel gefällig? Bittesehr, hier kommen die

AI Producer’s notes von Stephan Pauly zu Ridley Scott‘s BLADE RUNNER 

Schon ganz gut, aber ich hätte da gern noch folgende Änderungen:

Hauptrolle: vielleicht mal mit Christopher Walken aus ca. 1985 besetzen (weil Harrison Ford einfach nicht gleichzeitig Indiana Jones, Han Solo und Deckard sein kann); Bösewicht: Clark Gable statt Rutger Hauer (weil Rutger Hauer eh super ist, aber ich hab schon lange keinen guten Film mehr mit Clark Gable gesehen. Wie, schon tot? Das ist doch der AI egal!) 

Aspect Ratio: Finger weg, die bleibt natürlich in 2.39:1 Cinemascope, ihr Banausen!

Art Department: alle visuellen JAPAN Referenzen in VIETNAM Referenzen umwandeln (weil der JAPAN Takeover der Welt eindeutig eine 80er Jahre Idee ist, die nie so richtig eingetreten ist, und ich einen VIETNAM – Takeover der Welt interessanter fände) 

Autos, Flugobjekte und Gebäude bitte von LUIGI COLANI designen lassen (schlicht weil’s lustig wär)

Sprache bitte mal in Südafrikanischem Englisch (siehe oben)

Musik bitte wie gesagt von den Talking Heads, gerne im Stil meines Lieblingsalbums „Remain In Light“, aber ohne Vocals.

Im Ernst: All das rauscht doch einem Filmproduzenten täglich durch die Rübe, und nicht „more tits and Vangelis“ – so jedenfalls meine romantische Vorstellung von einem Filmproduzenten, und bald kann er sie es tatsächlich einfach ausprobieren! Der irre Twist ist ab jetzt allerdings, daß das auch für uns Consumer gelten wird. Mal alle technischen und rechtlichen Fragen außen vorgelassen, gibt es einen Markt für solche customizable Filme? Ach, mir doch egal, ich möchte eigentlich nur tagelang mit meinen neuen AI Reglern an BLADE RUNNER rumspielen, aber vielleicht bin ich auch nur ein wenig anders als die anderen kleinen Kinder auf dem Spielplatz.

Welchen Film würdet ihr euch vorknöpfen?

Und an welchen Reglern möchtet ihr gern drehen können?

Tool Tales 02: Das Schweizer Taschenmesser

Als ich vor geraumer Zeit mit Freund M. auf Korsika wandern war, mussten wir für Tage unsere eigene Verpflegung über die Gipfel schleppen – was hätte sich da mehr angeboten als ein ganzer korsischer Schinken? So saßen wir morgens, mittags und abends und säbelten unsere einzige Nahrung von einem immer leichter werdenden Schweinebein herunter, der Freund mit seinem Schweizer Taschenmesser, und ich mit einer Art gigantischer Crocodile-Dundee-Klappmachete. Was nach ein paar Tagen dazu führte, daß Freund M. zu Recht Angst bekam, er würde das Ziel wegen Unterernährung nicht erreichen, weil mein Messer (und ich, natürlich) einfach immer dreimal soviel vom Schinken runtergeschnitten bekam wie er mit seinem mickrigen Schweizermesser. Er hat überlebt, aber er hatte auf die harte Tour eine wichtige Lektion lernen müssen: Schweizer Taschenmesser sind bestimmt eine ganze Menge Sachen, aber sie sind einfach keine guten Messer.

Verwunderlich ist für mich deshalb, daß es das Swiss Army Knife geschafft hat, schlechthin DIE positiv besetzte Metapher zu werden für ein Multi Purpose Tool. Wer immer sie benutzt, unterschlägt damit ja meistens, daß das namensgebende Key Feature zwar mit im Multi Purpose Paket enthalten ist, aber daß es wie alle anderen darin zusammengepferchten Anwendungen weniger taugt als seine Standalone Variante, das Messer.

Wie aber verhält es sich mit unserer Kalkulationssoftware, dem Swiss Army Knife des Producers? Sie ist ja definitiv ein Multi Purpose Tool, weil sie so viele Dinge kann: 

_tausend buchhalterisch wichtige Kostendetails wie KSK, 50A, AGA präzise abbilden. Jetzt auch die Anrechenbarkeit der Catering-Ausgaben für Festangestellte Mitarbeiter:innen, hurrah!

_ein Regie-Treatment kalkulatorisch nachbauen

_einen Gesamtpreis ermitteln

_Überstunden berechnen

_Auslandskosten getrennt von Inlandskosten ausweisen

_eine Preisvorgabe um haargenau 10% überbieten, damit man sich anschließend auf die Preisvorgabe runterhandeln lassen kann

_Eventualitäten wie teurere Flüge abpuffern

_Schlechtwettertagskosten vorab einschätzen

_die Basis eines Angebots bilden

_eine seeeehr vollständige Leistungsbeschreibung ausspucken

_als Kostenüberwachungstool funktionieren

Etc.

Natürlich kann sie auch diverse andere wünschenswerte Sachen nicht: Rechnungen & Mahnungen erstellen z.B., oder Wetterdaten & Wechselkurse abbilden. Zusatzangebote integrieren. Versionenverläufe nachzeichnen.

Welche der vielen Funktionen ist denn nun aber das Crocodile-Dundee-Messer unseres Kalkulationsformulars? Da gibt es bestimmt eine Menge möglicher Antworten, aber hier ist mein shot: Das Messer unseres Kalkulationsformulars ist die Möglichkeit, effizient und präzise eine Regie-Interpretation kostentechnisch abzubilden (…nach den Gepflogenheiten der Producerkunst in der speziellen Ausprägung der jeweiligen Firma vor dem Hintergrund der allgemeinen Auftragslage und der Auftragslage der Firma im Speziellen etc. etc. etc, I know…) 

Wenn man das für sich beantwortet hat, und die Antworten können je nach Nutzerperspektive bestimmt auch anders ausfallen, dann sollte man sich vielleicht als nächstes fragen: 

Ab wann & wodurch wird dieses Key Feature so eingeschränkt und nahezu unbrauchbar wie die mickrige, nicht arretierbare Klinge eines Swiss Army Knifes? Einfach mal so als offene Frage stehen gelassen. Ist ja ein Blog, da geht das.

Natürlich muß ich einräumen, daß Metaphern schnell in die Irre führen, weil sie eben nur Metaphern sind und keine eins-zu-eins Abbildungen der gemeinten Realität. Vielleicht kann ja Software viel mehr Wunderdinge als die Schweizer Taschenmesser-Ingenieure. Vielleicht kann man im Unterschied zur physischen Messerwelt in der deutlich weniger physischen Software-Welt undendlich viele Features hinzuaddieren, ohne daß das namengebende Key Feature dadurch auch nur einen Deut schlechter wird.

Aber.

Tool Tales 01: Software, die Producer produziert

Momentan denke ich viel darüber nach, wie denn eine Software beschaffen sein soll, die Producern beim Produzieren helfen kann. Dabei landet man – ich – schnell dabei, wie man selber angefangen hat, Produktions-Software zu benutzen. 

Der Geschäftsführer, der mich in seine Produktion geholt hat, hatte mir in einem Satz den Unterschied zwischen einem Bidding Producer und einem Line Producer erklärt: „Du mußt für dich entscheiden wer du sein willst: Willst du lieber morgens als erster die Studiotür auf-, und abends als letzter wieder zumachen, oder willst du lieber ein Kalkulationsformular auf- und wieder zumachen?“ Was nicht bedeuten sollte, dass man in dem Laden nicht auf beiden Positionen minimum 16 Stunden am Tag geschackert hätte, aber der Unterschied hat mir trotzdem sehr eingeleuchtet. Ich habe mir im Laufe der Zeit beide Seiten lange & im Detail angeschaut, ohne mich je wirklich für eine entscheiden zu müssen. Aber zunächst habe ich Musikvideos gebiddet was das Zeug hält, und das einfach so und oft eher trotz als mit Unterstützung diverser Mitstreiter, die das entweder selbst schon seit Jahren machten.

„Du willst Producer sein? Du kennst keinen einzigen Beleuchter in Berlin!“ hat sich mal einer bei mir beschwert. Der war eher von der Fraktion „Studiotür“. „Du willst Producer sein? Du weißt noch nichtmal, daß die Beleuchter laden & rückladen, und daß man deswegen die LKW zwei Tage länger als die Drehtage buchen muss?“ Das war mein sog. Herstellungsleiter, den es zutiefst kränkte, dass er a) als studierter Filmproduzent in einer Musikvideobude arbeiten musste, und das auch noch, b) mit Menschen wie mir, die sich anmaßten, zu kalkulieren, ohne dieselbe heilige Ausbildung genossen zu haben. Und der sich deshalb schlicht weigerte, mich beim Kalkulieren zu coachen.

Was aber egal war: Es brauchte nämlich weder Beleuchtertelefonnummern noch LKW-Wissen, um das Bidden zu lernen. Dazu brauchte es nur 1. eine Produktionsfirma, in der viel gebiddet & produziert wurde, 2. Zugang zu den hunderten von Quotes, die auf dem Server rumlagen, und 3. Zugang natürlich zu den entsprechenden, auf dieser Basis entstandenen Werken. In diesen Quotes war genug Weltwissen gespeichert, als daß man Reverse Engeneeren konnte (ich kenne kein deutsches Wort dafür), wie man das entsprechende Musikvideo hergestellt hatte; und nach dem Vergleich von 20 Quotes und 20 Musikvideos konnte man sich selber an ein leeres Formular setzen und ein Script kalkulieren dergestalt, dass es selbst beim schlechtgelaunten Herstellungsleiter durchrutschte, der sämtliche Quotes gegengelesen mußte, bevor sie an die Kunden rausgingen. Quotes ließen sich damit basteln, die dermaßen plausibel waren, dass man sie beim Kunden verkauft bekam. Und, Feuerprobe schlechthin: die dann auch noch in den Händen einer echten Studiotür auf- und wieder zuschließenden Produktionsleiterin ein echtes Musikvideo ergaben.

Man könnte also sagen, dieses Tool – nicht das leere Formular allein natürlich, sondern das in diversen fertigen Quotes gespeicherte Produktionswissen – hatte quasi über Nacht einen Bidding Producer aus mir gemacht, ganz ohne HFF Studium, und ganz ohne Beleuchterkontakte. Good Job, Tool! 

Was ist also nochmal die Frage aller Fragen? 

„Wie gut & selbsterklärend bildet ein Tool die Wirklichkeit ab, die es am Ende erzeugen helfen soll, ohne dabei im Weg zu sein; ohne daß man sich durch Layers und Layers an Politics, an Verwaltung, an verkrustetem Detailquatsch durchkämpfen muß?“ 

Nur dann nämlich bleibt es so zugänglich wie möglich, nur dann ist es in der Lage, neue UserInnen zu empowern, selbst so schnell wie möglich und so gut wie möglich Producer zu werden. Nur dann ist es ein Tool, das Producer produzieren kann.

Ja, vielleicht ist DAS die Frage alles Fragen! Und dann kommen die ganzen anderen.

Tool Tales 03: Weinkrämpfe & Windows 3.1

Anfang der 90er habe ich Softwareschulungen gegeben beim Landesamt Für Datenverarbeitung Und Statistik, unter anderem (neben, Steinzeitmenschen werden sich erinnern, Novell GroupWise und WordPerfect) Word Kurse für Menschen, die noch nie an einem Computer gesessen hatten. Hochqualifizierte Menschen: Finanzbeamte, Buchprüfer, die auf einmal ihre Arbeit – die „Außenprüfung“, die Prüfung der Buchhaltunsgunterlagen bei größeren Firmen im Haus – auf einem Laptop erledigen mußten, der ihren gewohnten Workflow ersetzen sollte. Der ging so, bitte anschnallen: 

Handschriftliche Berichte verfassen – die ins Finanzamt schicken oder Faxen – dort werden sie von Schreibkräften abgetippt – dann ins Amt an den Außenprüfer zur Korrektur zurückgeschickt oder gefaxt – dann vom Außenprüfer korrigiert – wieder zurückgeschickt – dann im Finanzamt finalisiert – Und erst dann werden sie als Bescheid dem Unternehmen zugestellt. 

Da war also einiges drin an Optimierungspotenzial, auch für die armen, in  diesem workflow gefangenen Menschen selbst. Die Leute waren gar nicht doof, lediglich ihr workflow war aus heutiger Perspektive komplett kafkaesk. Was hätte da näher gelegen, als diesen Irrsinn mithilfe von Software & ein bisschen Hardware zu optimieren?

Und dann habe ich in meinen Kursen tatsächlich gestandene, erwachsene Menschen weinen sehen, no kiddin, bei der plötzlichen Realisation, daß sie mit einem komplett neuen workflow konfrontiert wurden, und daß es für sie keinen Schritt zurück geben würde. Und das nicht bei besonders raffinierten selbstgeschriebenen Makros, sondern bei dem Weg vom Einschalten des Rechners bis zum Öffnen eines leeren Worddokuments in Windows 3.1. 

Die Tränen hätten zugegebenermaßen auch meinem besonderen pädagogischen Talent geschuldet sein können, aber ich glaube, daß auch der SCHOCK* eine Rolle spielte, den die erste Konfrontation mit neuer Hardware, neuer Software und entsprechend einem neuen Workflow ausgelöst hat, und das alles gleichzeitig, und dann auch noch überbracht von einem leicht nerdigen Germanistik-Studenten im schlechtsitzenden 2nd Hand Cord-Sakko.

Seitdem weiß ich, wie existenziell die Tools sein können, die wir Leuten an die Hand geben. Ich erinnere mich noch, wie schwer es mir gefallen ist, das Gefühl existenzieller Bedrohtheit nachzuvollziehen, das meine armen Finanzbeamten in den Klauen hielt – „Weinen wegen Word?“ – aber im Rückblick ist mir das schon eine deutliche Warnung vor Cord-Sakkos und davor, Leuten leichtfertig Software zuzumuten, ohne sich das komplette Biotop drumherum genau angeschaut zu haben, zumindest aber eine Mahnung, möglichst viel Sensibilität & Nutzer-Orientierung walten zu lassen.

*Wenn man diesen SCHOCK nachzuvollziehen versucht, muß man sich nur mal die tollen Text-To-Video Musikvideos von FUNCUNCLE anschauen und sich vorstellen, man sei Pianist, und kurz vor dem Live-Auftritt in der ElbPhilharmonie bekäme man eine dieser irren Musikmaschinen hingestellt mit der Ansage: „So, und das ist jetzt dein neues Piano“. Oder man ist gezwungen, sein nächstes Angebot in diesem grausig unübersichtlichen und viel zu detaillierten Südafrikanischen Kalkulations-Fomular zu erstellen. Hab ich mal 1 Jahr lang gemacht, war zäh jewesen.

Wer MACHT einen Werbefilm?

Eine ganz einfache, leicht zu beantwortende Frage, je nachdem, wen man fragt. Der Kreativdirektor, natürlich. Der Produzent? Die Regisseurin selbstverständlich! Aber ich spreche gar nicht von diesen bizarren Credit-Posts auf LinkedIn, Instagram et. al., wo immer mehr Väter des Erfolges zu sehen sind als man kennt, und immer die Hälfte der UmsetzerInnen zu fehlen scheint. Viel interessanter sind da die Verschiebungen, die ich im Prozeß beobachte.

FRÜHER ™, also grob gesprochen noch in den Nuller Jahren, habe ich auch aus den großen Kreativ-Agenturen quasi fertige Filme auf den Tisch bekommen, die wir „nur noch“ drehen mußten: jede Einstellung war gezeichnet und vom Kunden verabschiedet; so weit bereits ausdiskutiert, daß man die Storyboard-Frames als Animatic hintereinander gehängt und mithilfe von MaFo-Tests NOCH endgültiger gegen Kritik und Verbesserungen abgesichert hatte, bevor sie überhaupt an uns Produktionen, an eine Regie rausgegangen sind. Was haben wir gefightet um auch nur EINEN Frame zu addieren, oder gar einen zu verlieren! „Wir drehen die Alternative mal mit, vielleicht können wir sie ja im Schnitt davon überzeugen“, was für ein Kampf, was für ein Krampf!

Das gibt’s ja auch immer noch, und ich bekomme immer einen leichten Anflug von Nostalgie bei solchen Skripten. Dazu gehört aber zugegebenermaßen auch die harte Realität, dass das meist eher die nicht ganz so geilen Filme sind, die so daherkommen. Die Antwort auf meine  Eingangsfrage bei diesem Prozeß ist jedenfalls relativ einfach: den Film hat zu großen Teilen eigentlich schon die Agentur gemacht, und wir durften ihn „nur noch“ umsetzen.

Fast Forward 2023: Ich sehe gefühlt immer häufiger „Filmkonzepte“ aus seriösen Agenturen, die 150 seitige Keynotes sind. Mehr Fragen als Antworten. Kein einziger gescribbelter Frame, Storyboards oder gar Animatics weit & breit nicht in Sicht. Möglicherweise, weil die Agentur bereits alle Energie darauf verwendet hat, die Heilige Asset Liste zu vervollständigen („und dann noch 28x 10Sekunden Cutdowns für Insta; und die Youtube Prerolls nicht vergessen“)? Ist das Faulheit, Zeitmangel, Ratlosigkeit, „Schwächen im Abschluß“, wie das im Fußball heißt? Oder das Prinzip „Death by Zuballern“ – den Kunden mit einer so langen Präse beschießen, daß er nach Seite 100 die Hände hebt und sagt „jajaja, kommt wieder wenn ihr einen Film habt, ich kann nicht mehr“. 

Neiiiin, das ist es natürlich nicht! Ich will lieber an das Gute auch im Kreativen glauben und sage: das ist vielmehr jedes Mal die Chance für eine gute Regisseurin, die selbstverständlich von einer sehr guten Produktion gebackt wird, sich einen wirklich guten Film auszudenken. Denn, zurück zur Ausgangsfrage, wer macht dann den Film? Die, die das können: Regie & Produktion im Rahmen eines von der Agentur freundlicherweise im Vorfeld mit viel Arbeit etablierten Raums von Möglichkeiten.

Da kann, muß also das Machen wieder deutlich auf unsere Seite rüberwandern. Auch wenn uns keiner dafür bezahlt, daß wir uns den kompletten Film inzwischen regelmäßig from scratch selbst ausdenken (dürfen), ist das ja erstmal eine gute Sache, oder nicht?

In comes AI. Wenn das vielgefürchtete Animatic ein Angriff der Kreation auf die Exekution war – „schaut her, der Film ist quasi schon fertig!“, dann kann man mit generativer AI eine entgegengesetzte Bewegung beobachten, eine Art Angriff der Exekution, des Machens, auf die Kreation. „Was, wenn im Hintergrund Supermann durch‘s Bild fliegt und einen rosa Zwerg-Gorilla auf dem Highway absetzt, der mit Bananen um sich wirft?“ FRÜHER ™ konnten Kreative das nur denken & sagen; jetzt können sie das innerhalb von einer Viertelstunde auch schon visualisieren, MACHEN, und direkt den Effekt der bereits umgesetzten Idee ausprobieren. 

Und dann? Wenn das wirklich verkauft ist, braucht es nur noch jemanden, der’s auch nach allen Regeln der Kunst umsetzt, sprich: gut macht. Da hat mir neulich jemand aus einer befreundeten VFX Company etwas zugeworfen im Sinne von: „Goldene Zeiten kommen auf uns zu! Warum? Weil die Agenturen mithilfe der neuen generativen AI Tools den Kunden immer mehr sehr avanciertes, sehr ausgearbeitetes Zeug verkaufen, und anschließend händeringend nach Profis suchen, die das auf einem Profi-Level auch umgesetzt – GEMACHT – bekommen“. 

Yippieh! Oder? Wie auch immer: die Stellen, an denen der Film gemacht wird, und die Sichtweisen darauf – von Producern, von Regisseuren, von Kreativen – sind jedenfalls erneut gehörig in Bewegung geraten, und diese Bewegung wird sich nochmal rasant beschleunigen und verstärken.

Gehen Sie bitte weiter, hier gibt es nichts zu sehen.

Ich hab mich neulich mal beschwert darüber, daß ich ständig Roboter-Bilder sehe, die AI-Beiträge illustrieren und dort die AI verkörpern sollen, und das auch noch auf LinkedIn. Immer eine schlechte Idee, Streit auf LinkedIn anzufangen. Diesen habe ich eindeutig verloren: am Ende wurde ich aufgefordert, halt eine bessere AI-Allegorie vorzulegen – „touché“! Wir wissen immer mehr darüber, was generative AI produzieren kann. Wir haben aber weiterhin keinen blassen Schimmer, wie wir uns generative AI vorstellen sollen, wir haben kein Bild davon, und so greifen wir ständig auf die ältesten Klischees zurück, die man sich denken kann. Soviel übrigens zum Thema „AI reproduziert ja immer nur das, was sie schon kennt, woran sie trainiert ist, da kann ja nix Neues bei rauskommen“: uns Fleshbags („Trollhunters“, 2016) geht’s da ganz genauso.

Etwas, das so menschenähnlich mit uns interagiert wie ChatGPT, das muß doch aussehen wie ein Mensch! Ist ja auch nicht einfach, erst recht nicht, wenn man nur schnell eine einleuchtende Illustration für einen Linkedin Beitrag braucht. Natürlich wollen wir in die bildlichen Repräsentationen immer einen Reminder auf die Maschinenherkunft der AI einbauen. Wie soll da keine humanoide Blechkiste bei rauskommen?

Grob gesprochen sind 95% aller Versuche nur Variationen über die Robots aus „All Is Full Of Love“ (1997), die Chris Cunningham übrigens selbst entworfen hat – sein Musikvideo ist zu Recht in der Ständigen Ausstellung des MoMa gelandet. Die Robots unterscheiden sich ja von Maria, Fritz Langs Roboter aus Metropolis (1927), dem Vorbild für Lucas’ C3PO, nur im Style, sie sind 90ies slick, weiß und gefühlt Japanese statt expressionistisch, aber eben nicht grundsätzlich: humanoide Blechkisten auch sie. Da ist also nicht wirklich viel passiert in hundert Jahren, könnte man sagen.

Zugleich ist das ja geradezu rührend hilflos. Diese ganzen Robots sollen uns trotz allen Alien-Terminator-Transformer-Schauers eine gewisse Sicherheit bescheren dahingehend, daß immer noch ein menschenähnliches Gegenüber mit uns interagiert; ein Gegenüber, wie wir uns uns selbst immer vorstellen, als Individuum, als eine abgeschlossene Entity.

Spätestens da kippt dann das Falsche ins Fahrlässige, weil wir uns auf diese Weise nur vor der Erkenntnis verstecken, daß es da eigentlich nichts zu sehen gibt. AI ist eben kein Individuum, AI ist nicht EINS. Kevin Kelly („The Inevitable“, 2016) knows best, Leute: „Conventional wisdom held that supercomputers would be the first to host (ai), and then soon enough, we’d add consumer models to the heads of our personal robots. (…) However, the first genuine AI will not be birthed in a stand alone supercomputer, but in the superorganism known as the net. (…) The AI on the horizon looks more like Amazon Web Services.”

Achtung, anschnallen bitte für den weit hergeholten Vergleich: Ein paar der monotheistischen Religionen haben es geschafft, die Idee eisenhart durchzuziehen, dass man seinen Gott nicht darstellen, ja, ihn sich nicht einmal VORstellen dürfe. Die Christen haben da zwar „jaja“ gesagt, „du sollst dir kein Bildnis machen“, aber dann haben sie Michelangelo et. al. rangelassen. Das sollten wir in Sachen AI vielleicht vermeiden, ein Gott mit Rauschebart ist eigentlich genau so daneben wie AI als Roboter. Lasst uns stattdessen mal den Mut haben, uns AI nicht zu visualisieren (was ja für uns Werbefilmmenschen eine ganz besonders schwieriges Projekt ist), zumindest nicht mehr als Chris Cunningham Roboter, bitte.*

Die meines Erachtens beste Analogie stammt erneut von, ihr ahnt es, Kevin Kelly: in der industriellen Revolution haben viele Unternehmer ein Vermögen gemacht, indem sie bekannte Produkte elekrifiziert haben: Ein Bügeleisen, aber mit Strom. Ein Rührgerät, JETZT NEU! Mit Strom etc. Den Strom dafür haben sich diese Erfinder-Unternehmer besorgt als vorfabrizierte, unsichtbare, netzbasierte Ressource, jederzeit anzapfbar. Mit unseren aktuellen Tools passiert gerade dasselbe: Photoshop, jetzt mit generativer AI. Und die bleibt, wie zuvor der Strom auch, unsichtbar.

Schaut Euch mal den TED Talk von Imran Choudhri an, der jahrzehntelang Designer bei Apple war. Seine Vision für eine neues Tool, mit dessen Hilfe wir mit AI interagieren können, ist in allem das Gegenteil der Facehugger-Apple Brille. AI wird uns, wenn man Choudhri folgt, garantiert nicht als Roboter entgegentreten; seine Vision ist vielmehr „technology needs to disappear – to re-allow us to be present“. Für mich so viel sympatischer als alle anderen Techonlogie-Ansätze, die ständig etwas Neues basteln, das sie zwischen mich und die Welt schieben wollen (Screens vor oder in meinem Gesicht, Kopfhörer in meinen Ohren, Kabel im Gehirn etc.) Choudhri hat stattdessen ein minimalistisches wearable device entworfen, das uns als Interface dienen soll, um uns AI als eine Art persönlichen, sprechenden Assistenten zur Seite zu stellen. Da gibt es literally nichts zu sehen – weniger Roboter ist kaum denkbar.

*PS: An einigen Reaktionen habe ich bemerkt, daß ich da vielleicht eine falsche Fährte gelegt habe: Ich wollte überhaupt nicht andeuten, AI habe übermenschliches, gar göttliches Potenzial. Noch sind WIR ja diejenigen, die etwas nach unserem Bilde geschaffen haben, nicht umgekehrt. Ich wollte lediglich darauf hinweisen, daß es eine solide kulturgeschichtliche Leistung ist, nicht immer alles gleich zu anthropomorphisieren, und daß man sich daran auch in Sachen AI halten sollte, auch wenn es einem dann schwerer fällt, LinkedIn Beiträge zu illustrieren.

Der „Einmal volltanken, bitte!“ – Effekt*

Mein VW fasst 65 Liter Superbenzin. Jetzt möchte ich natürlich auch gern mitmachen beim Klima retten. Weniger oder gar kein Auto fahren? E-Auto fahren? Immer nur einen halben Tank verbrauchen im Monat statt eines ganzen? Oder vielleicht doch E-Fuels, die sauber hergestellte Superbenzin Alternative! Denn damit mache ich genau das, was ich vorher auch gemacht habe: Ich tanke alle 3-4 Wochen meine Karre voll, nur eben mit angeblich sauber hergestelltem Sprit. Das Format „Auto“ und mein Umgang damit bleiben komplett unverändert, auch wenn ein neuer Treibstoff daherkommt. Und natürlich erwarte ich, dass es dasselbe kostet wie vorher.

Mal sehn wie weit uns diese holperige Analogie trägt… Ich frage mich halt grade, ob unsere Autos, quatsch, unsere Formate, unsere Arbeitsprozesse, nicht vielleicht mächtiger, zäher und langlebiger sind als die Inhalte und die Methoden, mit denen wir unsere Arbeit machen, und was das alles mit – NATÜRLICH – dem neuen Supertreibstoff AI zu tun hat.

An unseren Mood-Scouts kann man grade den „Einmal volltanken, bitte“-Effekt beobachten: Das Format „Moods suchen“ scheint deutlich robuster zu sein, als sämtliche potenziell ja revolutionären Innovationstendenzen der generativen AIs, die sich in dieses Format einschleichen.

In den Händen dieser Artists richtet generative AI zwar deren Arbeitsweisen neu aus und verändert sie radikal – vom Moodscout zum Prompt Artist – aber ihre Auslastung ist dabei nicht grundsätzlich in Frage gestellt. Das macht jetzt nicht auf einmal die Inhouse Praktikantin „weil das ja mit AI jetzt so einfach geht“. Und weniger wird die Arbeit auch nicht: die Regisseurin, der sie zuarbeiten, ist nicht auf einmal nach 10 AI-generierten Bildern und zwei Arbeitsstunden seitens Moodscout-Gone-Prompt Artist schon happy und sagt: „Ach, wie geil sind denn diese Midjourney Bilder, viel geiler als die immergleichen aus dem Netz zusammengeklaubten Moodbilder, ich habe eigentlich alles was ich brauche.“ Und die Mood Scouts selbst werden alles dafür tun, das nicht aus der Hand zu geben. Sie sind natürlich dabei, sich AI als weiteres Tool anzueignen, damit sie weiterhin möglichst viel ihrer Arbeitskraft auf dem Markt verkauft bekommen.

Zu erwarten, dass sich Effizienzgewinne in weniger Leistung oder weniger Arbeit niederschlagen ist also wahrscheinlich blanker Unsinn. Die Arbeit wird nicht weniger.

„Die 4-Stunden-Woche“ von Timothy Ferris etwa, ein großer Beschiß, wie die meisten dieser „Mehr Zeit, Mehr Geld, Mehr Leben“ Besteller, das ist im vollen Ernst der Bestseller-Untertitel! Natürlich hat Ferris selber nie vier Stunden die Woche gearbeitet mit seinem irren Output an Podcasts, Büchern, Nahrungsmittelergänzungen etc. Vier Stunden die Woche für dieses Buch vielleicht, aber in Summe bestimmt 120 Stunden die Woche… John Maynard Keynes‘ Prognose aus 1930, daß aufgrund der großen Effizienzgewinne neuer Techniken in 2030 jeder nur noch 15 Stunden die Woche arbeiten werde – komplett naiv, da lag der Jahrhundert-Ökonom genau so sehr daneben, wie der Lebenshilfe-Autor. Ja, es arbeiten alle mit viel mehr & besserem Output, aber eben immer mindestens noch genau so viel, und wenn sie weniger arbeiten sollten, dann nicht wegen der Effizienzgewinne neuer Techniken. Sondern weil man sich das mühselig erstritten hat mithilfe von so unsexy Erfindungen wie Gewerkschaften und so.

Was die Frage aufwirft, bei wem eigentlich die Effizienz- und Qualitätssprünge ankommen, die generative AI ermöglicht. Denn es ist ja etwas qualitativ anderes, was die AI ermöglicht, das ist schon deutlich näher dran an bisher sehr mit viel mehr Aufwand und möglichst nicht schon im Pitchprozess hergestellten Style Frames, für die spezielle Artists noch vor nicht allzulanger Zeit 600-800 Euro am Tag bekommen haben. Nicht für 50 Bilder, sondern für ein bis zwei. „Ah, super daß wir jetzt wegen AI x-fach so präzise und x-fach so viel Zeug als Moods bekommen, aber bitte zu denselben Konditionen wie vorher eine Mood-Recherche natürlich!“ Jedenfalls landen sie nicht bei den Moodscouts. Nicht bei den Produktionen, die immer noch den Moodscouts dieselbe Anzahl an Tagen bezahlen. Hmmm, ja wo denn dann? Wie hat grade Charlie Warzel im ATLANTIC geschrieben: „In a world where the cost of producing content (…) approaches zero, it stands to reason that the forces of capitalism would respond by demanding as much of it as possible.“ Exakt. Und wir liefern natürlich, because that’s what we do.

Anders gesagt: Die neuen Techniken reduzieren nicht die Arbeit, nur die Kosten für Arbeit. Die Arbeit wird nicht weniger, der OUTPUT wird mehr & besser. Der Tank wird immer noch vollgemacht, weil eben so viel reinpasst, jetzt mit dem besseren Benzin. Vielleicht müssten wir den Blick von Effizienzsprüngen auf Qualitätssprünge richten: zu denselben Konditionen gibt es jetzt genauere, bessere, hochwertigere Moods. Wenn das für alle anderen Regisseure, Producer, VFX Artists etc. auch gilt, die sich da aktuell durch AI zu Freuds Prothesengöttern aufrüsten, und wenn wir all diese Verbesserungen an Output und Qualität zum selben alten Preis an die Kunden durchreichen, dann bekommen die zum selben Preis ein deutlich besseres Produkt. Da müßte man vielleicht mal drüber sprechen; zumindest müßte es erstmal einer relevanten Anzahl an Menschen auffallen & die müssten das irritierend & thematisierenswert finden.

Das könnte, positiv bertrachtet, auch ein Hinweis darauf sein, daß gar nicht alle Jobs wegfallen werden wie in den gern bemühten Warn-Horror-Szenarien zu zukünftigen AI-Umkrempelungen, sondern daß sich stattdessen alle mit AI aufrüsten, um mehr und einen besseren Output bieten zu können, aber trotzdem immer noch dieselbe Menge Manpower zu verkaufen. Das Problematische an AI ist also wahrscheinlich nicht in erster Linie die SKYNET Dystopie, oder daß viele Menschen ihre Jobs verlieren werden (auch wenn Goldman Sachs sagt, immerhin keine esoterische Hippie-Bude, daß im nächsten Jahrzehnt jeder 11. oder 300 Millionen Jobs ausgelöscht werden durch AI). Das Problematische ist eher, nochmal Charlie Warzel: „The easier our labor becomes, the more of it we can do, and the more of it we’ll be expected to do.“

Soweit teilen wir Filmhasen also wohl nur die AI-Zukunft mit all den anderen White Collar Arbeitsbienen da draußen. Oder gibt es für uns darüber hinaus noch eine sehr spezifisches Szenario, das wir im Auge behalten sollten? Der „Bitte einmal Volltanken“ Effekt ist in dem Moment unser kleinstes Problem, wenn generative AI so machtvoll wird, daß sie den Anspruch erheben kann, unser komplettes Produkt zu liefern, komplette Filme zu machen. Der Prognosen-Wettbewerb ist da im vollen Gange: „Wir werden die erste AI-generierte Nextflix Produktion in 12-18 Monaten erleben, den ersten AI Hollywood Film bis 2028 etc. etc.“

Bei den Architekten oder den Modeschöpfern ist das anders, da übernimmt AI „nur“ das Entwerfen, gebaut und geschneidert werden muss weiterhin. Text-To-Video AI macht dagegen erste Gehversuche darin, nicht das Konzept oder das Art Department eines Filmes zu ersetzen oder mit neuen Tools auszustatten, sondern den gesamten Film zu generieren.

Vielleicht ist generative AI also gar nicht nur der neue Supertreibstoff, den wir demnächst in unseren Filmproduktionstank packen, vielleicht ist generative AI die neue Filmproduktion. Bleibt spannend.

*P.S.: Wenn ich Wirtschaft studiert hätte, stelle ich grade beim Weiterlesen & -nachdenken fest, hätte ich mir nicht selber so eine maue Analogie ausdenken müssen & sie den „Einmal Volltanken Effekt“ nennen müssen. Ich hätte einfach sagen können: Klarer Fall von Jevons Effekt! Jevons Effekt? England war im 19. Jh das Saudi Arabien der Steinkohle mit der Sorge, was wohl passieren werde, wenn die Steinkohle mal alle ist. Schlaue Ingenieure argumentierten, das sein kein Problem, weil der technische Fortschritt zu effizienteren Maschinen und damit zu weniger Kohleverbrauch führen werde. Der noch schlauere Ökonom Jevon argumentierte dagegen, daß effizientere Maschinen zu MEHR Kohleverbrauch führen würden, weil sie die Kosten des Kohleverbrauchs senken würden. Wenn der Preis sinkt, steigt die Nachfrage, und mit der Nachfrage steigt der Konsum. Von Kohle, wie auch von AI powered White Collar Arbeit. Und genau das wird passieren! Der Preis für unsere Arbeit + AI wird sinken – anders betrachtet, wir werden für unsere per AI supercharged Arbeit dieselbe Kohle bekommen, wie wir sie vorher ohne AI bekommen haben. Und der Preis für Arbeit, die nicht per AI veredelt wird, wird ins Bodenlose fallen. Nicht in der Krankenpflege, und nicht im Straßenbau, aber bei uns.