Hervorgehoben

More Risk, Less Fun

Wir gratulieren uns ja seit ein paar Jahren ständig selbst dazu, daß seit der Einführung des Kalkulationsstandards SCoPE nicht mehr über MarkUp gesprochen werde. Mach ich jetzt trotzdem mal. Hat ja auch die Kunden keineswegs davon abgehalten, uns weiterhin MarkUp-Sätze vorzugeben. Vielleicht ist das damals ja auch deshalb vergleichsweise easy bei den Kunden durchgeflutscht, weil sie sich gedacht haben: „Solange diese aufmüpfigen Werbefilmer sich an unsere komplett aus dem Ohr gezogenen MarkUp Vorgaben halten, soll es mir doch schnuppe sein, ob sie das ausweisen oder nicht!“

Ihr habt bestimmt schon viele MarkUp Definitionen gehört, aber hier kommt Producer Pauly seine Spezialdefinition: Das MarkUp einer Werbefilmproduktion setzt sich zusammen aus zwei Teilen, dem Gewinn- und Handlungskostenaufschlag, wie ihn auch eine Serviceproduktion berechnet, und einem weiteren Aufschlag, der als Risikoprämie fungiert dafür, dass wir Werbefilmproduziererinnen und -produzierer eine Preisgarantie abgeben. Das habt ihr anders gelernt? Ich kann alles erklären!

Wie geht die weltweit seit Jahrzehnten anerkannte Preisgestaltung einer ServiceProduktion? Ganz einfach: 10% ist der Preisaufschlag, den jeder Kunde schulterzuckend als die ganz normale MarkUp Fee akzeptiert, die man einer Service Produktion für ein CostPlus Projekt bezahlt. „Cost Plus“ ist ja nur eine andere Formulierung dafür, dass die Service Produktion eben keine Preisgarantie abgibt. Sie schlägt stattdessen 10% auf die tatsächlich angefallenen Kosten auf.

Auch wenn beide nahezu dieselben Kalkulationsformulare benutzen, auch wenn wir beide irgendwie von unserem MarkUp leben, unterscheidet sich unser Geschäftsmodell vor allem wegen der genannten Preisgarantie. Aber kalkulieren wir jetzt ein Line Item mit der Bezeichnung „Preisgarantieübernahmerisikoprämienaufschlag“? Nee, tun wir natürlich nicht. Der Unterschied unserer Geschäftsmodelle verbirgt sich schlicht in unserem höheren Markup.

Wie hoch muß aber der Unterschied zwischen diesen beiden Markup-Sorten sein, damit er diese  Preisgarantie belastbar abbildet? Die historische Voreinstellung in unseren Kalkulationen von 26,5 % habe ich schon sehr lange in freier Wildbahn nicht mehr gesehen. Die wahre Antwort geben Werbefilmproduktionen stattdessen jeden Tag, indem sie Angebote abgeben: deren Markup liegt sachichjetzteinfachmalsoausderLuftgegriffen irgendwo zwischen 20% und immer häufiger 15%. Frei aus der Luft gegriffene Zahlen natürlich!

So, jetzt haben wir alle Fakten zusammen: Die Prämie für die Preisübernahmegarantie liegt beim Abstand zwischen 10% Service-MarkUp und einem durchschnittlichen Werbefilmproduktions-MarkUp, vermutlich aktuell irgendwo zwischen fünf und zehn Prozent. Ist das viel? Wenig? Die meisten Werbefilmproduktionen leben ja noch, aber ich verrate sicher kein Geheimnis wenn ich sage: das ist verdammt haarscharf kalkuliert und puffert wahrlich keine großen Risiken ab, auch wenn es das eigentlich müsste.

Was bringt diese Betrachtunsgweise, diese Producer Pauly Formel vom Werbefilm-Markup = CostPlus Markup + Preisgarantie-Risikopämie? Wenn man das mal einen Moment lang so betrachtet, dann kann man auf die Entwicklung der letzten Jahre blicken – Spoiler alert: Tendenz sinkend – und konstatieren: Wenn das Werbefilm-Markup zu sehr sich den 10% des CostPlus Modells nähert, wenn also die Prämie dafür, dass wir in diesem hochvolatilen und komplett auf Kunden-Pleasing ausgerichteten Von-Der-Hand-In-Den-Mund-Business auch noch die Garantie für die Einhaltung eines abgegebenen Preises übernehmen, gegen Null sich bewegt, dann ist sie schlicht zu niedrig und damit, hier mal in Großbuchstaben, GEHT DAS AN DIE WURZEL UNSERES GESCHÄFTSMODELLS.

„Producer Pauly übertreibt“, höre ich manchen murmeln, „Preisgarantie, das ist doch nur ein Vertragsdetail, ist denn das wirklich so wichtig?“ Ich könnte da jetzt mit unserer täglichen Praxis argumentieren, schlage aber stattdessen ein gewagtes Experiment vor: fragt doch mal Eure Kunden, ob sie zum CostPlus Modell produzieren wollen, wenn sie das nächste mal mit MarkUp Vorgaben von sagichjetzteinfachmalbeispielweise 13% versuchen, die Prämie für die Preisgarantie gegen Null zu drücken. Aber setzt Euch vorher einen Integralhelm auf und zieht eine Kevlarweste an, denn die Reaktionen werden entsprechend sein. Das machen die nie. Kategorisch nicht. Never. Ever. Und warum? Nicht, weil das im Vertragsrecht so geregelt ist. Sondern weil sie genau wissen, wie wichtig es ist, die Verantwortung für das fertige Werk weder selbst in Händen zu halten, noch sie der Werbeagentur zu überlassen, sondern sie vielmehr uns Werbefilmproduzierenden umzuhängen. Dieses Wissen müsste man ihnen nur regelmäßig und immer wieder in den Arbeitsspeicher laden, indem man darauf verweist, dass es für 10% MarkUp und alles was sich dem nähert eben nur CostPlus gibt, geben KANN. Nicht weil wir den Hals nicht voll bekommen können, sondern weil die Übernahme dieses Risikos eben angemessen bepreist sein muß, damit sie aus Business Sicht verantwortbar ist.

Zwar höre ich noch meinen alten Producer-Yoda Glenn B. stolz sagen: „Wir sind Filmhersteller, keine Filmteile-Hersteller“. Aber im ernst: wenn das in absehbarer Zukunft keiner mehr angemessen bezahlt, dann sollten wir vielleicht alle kollektiv darüber nachdenken, ob wir nicht lieber auf diesen Stolz verzichten und zukünftig zum CostPlus Modell der Serviceproduktionen, der Filmteile-Hersteller, antreten.

Hervorgehoben

Wenn nun aber die Roboter sehr nett wären, während sie die Welt übernehmen?

Das hat sich Wired gefragt neulich, um mal einen anderen Blick auf die immer rasanter erreichten AI-Meilensteine auszuprobieren als z.B. Panik oder Kulturpessimismus. Ja, schon wieder AI, ich weiß. Aber die anderen interessanten Sachen hab ich doch alle schon weggebloggt! Oder nicht? Alternativ-Vorschläge sind natürlich herzlich willkommen. 

Diesen anderen Blick würde ich mir gerne ausborgen und ein paar Producer-Wünsche formulieren an unsere neuen AI Overlords, die schon fleißig dabei sind, unser aller Werbefilmbusiness umzukrempeln. Das gilt zwar für jede Art Business, wie ihr beispielsweise in der „2023 Expert Survey of Progress in AI“ nachlesen könnt. Aber „The future is already here, it’s just unevenly distributed”, hat William Gibson schlauerweise mal gesagt und ich glaube, daß wir Werbefilmhasen uns darauf einstellen sollten, noch vor vielen anderen eine übergroße Portion Future abzubekommen. Early adopters, early targets, wie man’s nimmt. Dear AI Overlords, hier also schonmal meine ersten, bescheidenen Wünsche:

Schluß mit der Unsicherheit! Gebt uns rechtssichere Tools, sonst können wir sie nicht benutzen. Gebt schon beim Training Eurer Tools keinen Anlass für Beschwerden. Sonst sind wir am Ende wieder auf GETTY und ADOBE angewiesen, die beide bereits jetzt rechtssichere generative AI anbieten inklusive Haftpflicht-Coverage gegen Copyright-Klagen. Wer will schon allein auf GETTY & ADOBE angewiesen sein? 

Make A Difference! Gebt uns neue Tools und Workflows, die einen solchen Unterschied machen, daß sie neuen Talenten eine Chance bieten, sich in diesem unserem Markt zu positionieren und zu etablieren. So wie das in den 90ern Email, Excel, Mobiltelefone und Laptops ermöglicht haben. Oder in den 00ern die RED Kamera One Man Shows möglich gemacht hat, die auf einmal mit ihrem eigenen Profi Tool antreten konnten.

Mehr für alle! Laßt nicht zu, daß die Marktdynamik alles an Mehrwert zu den Kunden rüberschaufelt, was wir mit Eurer Hilfe werden erzeugen können. Ein wenig davon möchten wir gern abhaben, ob in Form von weniger Arbeit für dasselbe Ergebnis, oder in Form von viel mehr Asche für ein bißchen mehr und andere Arbeit, das soll mir ganz egal sein. Ich weiß, daß ihr nicht zu hundert Prozent dafür verantwortlich seid, wem die Tools nutzen, die ihr baut – wer ist das schon – aber nur so für den Hinterkopf, vielleicht machts ja doch einen Unterschied, wenn ihr mehr an uns denkt, die wir sie benutzen wollen sollen.

Smarter Stuff statt More of The Same Stuff! Laßt es bitte nicht einreißen, daß einfach mehr von allem in die eh schon knirschenden und überkomplexen Strukturen reingepreßt wird, ohne daß irgendwer einen Cent mehr verdient – außer Euch, natürlich. Und außer den Kunden, die signifikant mehr Leistung für 20% webniger Budget abgreifen werden wollen. Ich weiß ja, dear Overlords, daß wir kleinen Konkurrenzfrettchen da unseren Anteil dran haben, daß das immer & immer wieder passiert, wir, die wir immer nur danach schielen, wer uns auf den Fersen ist getreu dem Motto „Du mußt nicht schneller sein als der Bär, der dich verfolgt; du musst nur schneller sein als die anderen“. Auch hier ist das natürlich auch eine Frage des gesamten Ökosystems, in dem wir alle uns bewegen und in dem wir alle Verantwortung tragen, aber.

Jetzt Neu! Können wir bitte gemeinsam im Blick behalten, daß wir nicht nur alten Wein in neuen Schläuchen bekommen, halt Werbefilm wie immer, aber jetzt mit AI gemacht? Daß stattdessen auch ein paar neue Formate entstehen und neue Player mit diesen neuen Formaten groß und toll werden? Da geht doch was!

Bonus-Wunsch: Ich kann das ganze Virtual Production Zeugs schon nicht mehr sehen. Das könnt ihr besser! REBEL MOON zum Beispiel sah wirklich schon sooooo oldschoolmässig aus, ich mußte regelmäßig vorspulen oder skippen oder wie das auf Netflix heißt. Helft doch bitte dem Herrn Snyder bei seinem nächsten Versuch, uralte Mythen, mittelalte SciFi Filme, Fascho-Bösewichter und Darsteller mit viel zu weißen Zähnen neu anzurühren.

Das war’s für heute erstmal, danke im Voraus, und bitte immer schön nett bleiben beim Weltherrschaft übernehmen, versprochen?

Hervorgehoben

AI Director im Interview: Martin Haerlin

Vor Kurzem noch habe ich darüber halluziniert gebloggt, daß in Zukunft immer mehr Filme von Centauren gemacht werden, wie sie beim Schach heißen: von Kombinationen aus Menschen und AIs. Und dann finde ich doch tatsächlich einen solchen Centaur in meinen Feeds: Martin Haerlin, Regisseur seines Zeichens, der seit einiger Zeit tolle AI Filme und Werbung macht. Den hab ich ruck-zuck gleich mal interviewt für Euch:

SP: Martin, du kommst aus dem klassischen Werbefilm als Regisseur. Was hat dich bewogen, mit AI loszulegen und die Filme zu machen, die du bisher gemacht hast?

MH: Also die wichtigste Zutat um bei KI eingestiegen zu sein dieses Jahr ist, dass man in der Werbung arbeitet und Anfang des Jahres nichts zu tun hatte. Ich habe früher mal programmiert und habe mich wieder darauf zurück besonnen: Ich hab angefangen zu programmieren. In Python, aber auf ’nem Low Level; Habe auch angefangen mich in Machine Learning reinzubasteln, kleine Kurse angeguckt und dann stieß ich auf Runway, diese Plattform die ja Machine Learning basiert ist, und wo du Videos generieren kannst. Damals war nur die GEN 1 verfügbar, wo du Videos re-stylen kannst. Ich glaube, dass mir mein Programmier-Monat am Jahresanfang die Angst genommen hat, mich damit auseinanderzusetzen.  Wäre ich jetzt im Werbesaft gestanden und hätte rund um die Uhr gedreht, dann hätte ich mir die Video KI gar nicht angeschaut.

Und ich konnte plötzlich meine eigenen kleinen Geschichten erzählen, ich musste noch nicht mal nach draußen! Es war einfach fantastisch, und dann kam in Juni GEN 2, wo man Text eingab, und dann ein Video entstand, wie bei Midjourney mit Stills ging das jetzt plötzlich mit Bewegtbild. Dann habe ich da wöchentlich einen Film gemacht, aber auch Stunden am Tag am Rechner verbracht.

SP: Kannst Du beschreiben, wie sich deine Rolle verschoben hat im Vergleich zu einer klassischen Filmproduktion? Hast du ja schon getan, du sagst „du und dein Rechner, das war’s“, oder?

MH: Es ist es ist deutlich weniger glamourös; man sitzt bucklig vorm Rechner und bastelt vor sich hin. Als ich angefangen habe im April, da haben ganz viele Leute Runway schon benutzt, aber es waren eher so die Computer Geeks, und die haben dann die zehn schönsten KI generierten Explosionen releaset.  Das hatte für mich aber erstmal keinen Use Case; es gab kaum jemanden, der Storytelling macht und KI benutzt. Und deswegen konnte ich mit meinen Filmen eine Leerstelle ausfüllen.

Mit anderen Worten: es ist irre wichtig dass man Storytelling kann, sei es als Werbe-Regisseur oder als Spielfilmregisseur, oder als Schriftsteller, und das dann kombiniert mit einem oder mehreren KI-Tools.

SP: Wie wir sehr fehlt dir der Input der anderen Department also Storyboarder, Production Designer, Kamera und so weiter?     

MH: Der Input der klassischen Departments funktioniert im Moment noch nicht in der KI-Welt. Man kann nicht sagen „Ich möchte genau so ein Wohnzimmer“, „Ich möchte genau so ein Licht“ „Ich möchte genau so eine Aktion“.

Sämtliche KI-Plattformen quatschen mit rein und machen ihr Zeug damit. Das heißt, du triffst immer wieder auf Begrenzungen, wo du dich drumrum arbeiten musst. Was aber wichtig ist, ist der Input anderer KI Leute. Ich bin überrascht wie freundlich und unterstützend die KI Community ist vor allem auf Twitter. Ich hab wieder unheimlich viel Input, aber von anderen Leuten. Welche Kamerabewegungen gehen; welche Prompts funktionieren gut; welche schlecht; was kann man ohne viel Aufwand mal eben generieren und was braucht ewig. Das heißt, der Austausch hat sich nur verschoben.

SP: Sind das Leute die wie du einen Regie-Background haben, oder ist das deutlich bunter?

MH: Ich bin einer der wenigen, die da wirklich mit seinem Klarnamen herumhantiert. Die meisten haben irgendwelche Avatare und dementsprechende Namen, aber ich glaube, dass viele aus dem Filmbereich kommen. Art Direktoren, Regisseure, einer kommt von der BBC – schreibt er – ich finde man merkt relativ schnell wo sie herkommen, wenn man deren Arbeiten sieht. Leute die wirklich Storytelling machen, die müssen aus dem Bereich sein. Die setzen sich mit Bildern auseinander. Es gibt aber auch ganz viele die machen Tests, die zeigen dann den Fallschirmsprung, den sie in KI gerechnet haben; und das hat ja auch seine Berechtigung. Ich merke: Soundso könnte man etwas erzählen. Die, die mich faszinieren, kommen wahrscheinlich aus einem ähnlichen Bereich wie wir.

SP: Die Arbeitsteiligkeit ist ja trotzdem komplett verschwunden, wenn du als Chimäre mit deinem KI Tool zusammenarbeitest. Welche der klassischen Rollen gibt’s da zukünftig für dich eigentlich? Gibt es eine Rolle für einen Producer in diesem Setup?

MH: Was ich mach ist wirklich nur auf sehr kleinem Level. Man könnte deutlich bessere KI Filme machen, wenn man im Team arbeitet. Wenn man einen Producer hat, der das kalkuliert. Wenn man einen Kameramann hat, mit dem man was zusammen dreht & das dann restylet; und dann aber auch noch in einem Text to Video Tool die Establisher macht. Eigentlich geht es mir darum zu zeigen, „Hey, KI kann ’ne Menge; Aber bitte nicht ab jetzt alle Spots in KI generieren“.

KI ist ein mächtiges Tool, mit dem man prävisualisieren kann, aber in Zukunft auch ganze Shots ersetzen kann, wofür früher die Kohle oder die Zeit nicht gereicht hat. Du kannst deine Filme viel größer machen; emotionaler, intensiver. Eigentlich gehts mir nicht darum, Departments zu ersetzen, sondern Enhancement durch das KI-Tool zu bekommen.

SP: Gestern bin ich über einen AI Film von Cadmo Quintero gestolpert, der hat klassische Departments mit reingenommen: Sören Görth hat geschnitten, DIE ZWEI haben Musik gemacht, und man merkt sofort den Input der anderen Departments. Das Heavy Lifting übernehmen in diesem Film geradezu der Schnitt und die Musik. Das macht einen Riesenunterschied.

MH: Hab ich gesehen, finde ich richtig toll. Wir haben unterschiedliche Herangehensweisen glaube ich – mir geht es erstmal darum zu zeigen, du kannst es als One-Man-Show schaffen. Ich mach absichtlich Low Tech. Ich hab in meinem letzten Re-Styling-Film absichtlich ein  Stöckchen benutzt, ich hätte auch eine Pistole nehmen können, ich habe aber extra ein Stöckchen genommen und das zu einer Pistole re-stylen lassen, ich will, dass das alles handgemacht aussieht.

Wenn da noch mehr Regie- oder Kamera Kolleginnen einsteigen würden… wir haben alle so einen Vorsprung was Filmsprache angeht, das beeinflusst den Output. Wir wissen wie wichtig Sounddesign ist, wie wichtig ’ne Close und ’ne Weite Einstellung im Wechsel sind, wir könnten richtig tolle KI Filme machen, es benutzen aber noch extrem wenige. Das ist so ein bisschen wie „Don’t Look Up“: Es WIRD kommen. Und man MUSS sich damit auseinandersetzen. Zu sagen „Ich mach’s nicht“, das ist echt gefährlich.

SP: Deinen LowFi Ansatz finde ich persönlich wahnsinnig interessant. Das was Cadmo gemacht hat, ist für mich so das Naheliegendste; das ist so ein Post Production SciFi Future Dystopia Sujet Ding, da werden die Leute vielleicht sagen „Naja, das hätte man früher in 3D gemacht oder in der Unreal Engine, jetzt macht’s halt ’ne KI, wo ist der große Unterschied?“ Aber bei dem, was du machst – das machst du nicht in UnrealEngine. Der Ansatz ist ein ganz anderer. Den finde ich persönlich total spannend weil es einem dieses Gefühl vermittelt „Geil! Let‘s Go! Ich brauch das alles nicht, film film film!“

MH: Genau! Diese Attitude möchte ich rüberbringen. Ich will es nicht als NOCH schwieriger hinstellen. Nicht: „Oha, wenn ihr KI macht, Freunde, daaaaannn langsam…“ Ich veröffentliche auch immer meine Herangehensweise.

SP: Ich habe vor allem Angst davor, dass die Industrie das vereinnahmt und sagt „uh, oh, da brauchen wir jetzt aber erstmal ein halbes Jahr“, und dann ist das wieder so wie beim Switch von Filmmaterial zu digital: du sagst “Geil, ich  muss diese blöden Filmrollen nicht mehr rumtragen und entwickeln und abtasten, Yippie!“ aber dann kommt gleich: du brauchst einen DIT; und du drehst 10x so viel Material; hast doppelt soviel Edit-Zeit etc. Da hat sich der Alte Prozeß gleich wieder so breit gemacht in dem neuen Medium, dass der Unterschied zwischen Alt und Neu sofort wieder verschwunden ist. Also die ganzen Vorteile. Darum finde ich deinen LowFi Ansatz so toll: Das macht Spaß, und das merkt man.

MH: Der Spaß ist dabei wahnsinnig wichtig, dass man andere inspiriert und ansteckt. Dass sich die Industrie da sofort wieder breit macht: Ich hoffe dass das nicht passiert.

Man muss im Moment mit KI noch sehr vorsichtig sein weil es den gesamten Prozeß der Werbung auf den Kopf stellt. Während es bei Werbung immer um Kontrolle ging – Fitting, Abnahme wie das Essen aussieht… Wir versuchen, den Zufall möglichst auszuschließen denn der Kunde hat all sein Geld zusammengekratzt und da soll dann die Schokolade fließen und die Butter schmelzen, und da darf nix schiefgehen. Und das geht mit KI nicht mehr. KI wird das auf den Kopf stellen. Wir müssen uns da mit dem Zufall, der Spontaneität arrangieren. Und ich glaube, dass sich dieser Prozeß in der Werbung durchsetzen wird. Parallel zur üblichen Kontrolle. Sone Marke wie Dr. Oetker wird nicht so schnell auf KI aufspringen; aber eine Lifestyle Marke wie H&M oder Zalando. Wenn ich sehe wie ein Model in Pink gekleidet an einer Tischtennisplatte vor einer grauen Betonwand vorbeiläuft, dann ist das ein Bild, was ich bald in KI umsetzen kann. Und dann kriege ich vielleicht eine Person, wie sie vielleicht nicht ganz im Zalando Katalog zu finden ist; aber sie hat trotzdem was Interessantes. Es wird ein neuer Prozeß entstehen, wo man Spontaneität wieder zulässt und wo man zu den Anfängen der Werbung zurückgeht, wo man einen Künstler engagiert hat und gesagt hat: „Mach uns mal in deinem Style etwas für meine Marke.“ Und da ist dann jetzt eben der KI Künstler, und dem sagt man “Mach doch mal mit deiner KI einen lustigen Film für XY“ Und dann machst du was und zeigst es denen und das ist eine total schöne Vorstellung und Zukunft, auf die ich mich freuen würde.

SP: Bin ich total bei dir. Hast du schon ein kommerzielles Projekt mit KI umgesetzt?

MH: Es kommen wahnsinnig viele Anfragen. Es ist im Moment noch schwierig, weil die immer noch die volle Kontrolle wollen. Ich hatte eine Anfrage einer Versicherung aus USA, die KI sollte da eine Traumsequenz generieren von einem PIXAR-Mädchen, das Fußball spielt. Da habe ich gesagt, den eigentlichen Film muss man normal drehen, aber von der Animation könnte man große Teile wenn nicht alles in KI machen. Da würde ich mich dann hinsetzen und das VOR dem PPM so weit vorbereiten wie möglich, damit man dann nicht erst nachher merkt, dass man die Szene wie der Fuß den Ball kickt gar nicht hinbekommt in KI, was tatsächlich nicht möglich ist. Aktionen sind noch wahnsinnig schwierig.

Ich spreche jetzt beim ADC im November; bin mit einer Argentinischen Agentur am diskutieren. Deutsche Agenturen haben sich wenige gemeldet bisher. Mit Wiedemann & Berg habe ich gesprochen.

SP: Ich beobachte die Reaktionen, da gibt es ein breites Spektrum. Andre Aimaq hat da beispielsweise auf LinkedIn bedauert, dass die Agenturen nicht streiken wie die SAG Darsteller und als Forderung formuliert, dass AI Kreationen als solche gekennzeichnet werden müssten; und am  anderen Ende des Spektrums sind dann Menschen wie du oder der lustige John Finger, der auch dieses Let’s-go-for-it Ding laufen hat – wie siehst du diese Diskussion?

MH: Schwierige Diskussion. Seit Jahrzehnten werden in Hollywood Menschen über VFX dupliziert. In Mittelerde sind nicht 40.000 Orks gerannt, und der Film ist 25 Jahre alt. Es gab da schon immer Tricks. Die SAG Geschichte – so wie ich sie verstehe – ist, dass es darum geht, dass Komparsen von KI ersetzt werden.

Ich hab neulich mit einem Synchronsprecher dieselbe Diskussion geführt. Meine Kinder haben mal Synchronsprecher 2 Sätze für Netflix gesprochen. Sowas wird ziemlich sicher von KI ersetzt werden. Da muss ich aber auch sagen: Da geht kein Kunstform flöten. Das waren Teenager, keine Synchronsprecher auf einem hohen Level. Die werden in absehbarer Zeit nicht ersetzt werden. Die ganzen Nuancierungen kannst du so nicht Prompten. Das gleiche gilt für Schauspielerei. Wenn Komparserie verschwindet, verschwindet auch da keine Kunstform, sondern ein total netter Nebenjob.

Menschen können nur von Menschen gespielt werden, wenn sie eine emotionale Rolle haben, aber wenn man 20.000 Menschen zeigen will, die mit Schwertern herumrennen, dann kann man natürlich KI benutzen. Da verschwinden Jobs, die vor 120 Jahren auch im Handwerk verschwunden sind.

Du kannst auch jetzt einen handgewebtem Teppich aus der Manufaktur haben, aber auch einen Teppich von IKEA.

Und dasselbe wird es auch bei uns geben: Handgefertigte Filme von toller Crew gemacht; oder maschinengemachte Filme und Kreation. Das wird in diese zwei Kategorien zerfallen.

SP: Hast du Empfehlungen wo man dranbleiben sollte?

MH: Jon Finger ist toll.  Nikolas Neubert hat einen tollen Trailer gemacht, Christian Fleischer hat einen der ersten Gen2 Filme gemacht: THE GREAT CATSPY. Als ich das gesehen habe war ich so begeistert. Auf Twitter gibt es eine tolle Community, unbedingt einen Account holen. Aber, Rückfrage, wie siehst du das denn mit KI & Jobs ersetzen?

SP: Der kommerzielle Druck, das umzusetzen, was möglich ist, ist so groß, dass du dich nur entscheiden kannst, mitzumachen oder den Laden abzusperren. Wir als Werbefilmproduzenten sind überhaupt nicht in der Position, da Forderungen aufzustellen. Das klingt vielelicht defätistisch, aber wir drehen unsere Werbefilme auch im  Ostblock, weil da der Oberbeleuchter nur die Hälfte kostet. Das ist so. Das kann man Scheiße finden, aber man kann sich nur entscheiden, da mitzuspielen oder raus zu sein. Das muss man sich natürlich immer wieder neu fragen: „Mach ich DABEI dann auch noch mit, oder lasse ich’s dann lieber sein?“

Ich glaube, das wird sich verschieben, das Nicht Ersetzbare wird immer weniger werden – was muss man mit echten Menschen machen? Immer weniger. Das frisst sich ja schon von unten in unsere Departments rein. Stock Footage, Moodscouts, Storyboards, in die Kreation selbst – JVM hat grade eine KI Hyundai Kampagne gemacht. Das kommt aus allen Richtungen auf uns zu. Und die wirtschaftlichen Incentives, das zu machen, sind so stark, wie wir’s beim Switch zu digitalem Drehen erlebt haben, und das in Potenz. Da geht’s nicht darum, dass man jetzt 1.500 Euro für eine Abtastung spart. Da geht’s darum, dass man bestimmte Filme so macht, so wie Martin Haerlin sie jetzt schon macht, nämlich als One-Man-Show in einer Woche am Rechner. Mit einer guten Idee und einer guten KI und Feierabend. Da brauchste nicht nach Kapstadt weil das Wetter da schön ist im Winter.

MH: Was jetzt easy geht ist: du kannst jetzt einem Weingut einen 30-Sekünder über Trauben im Herbst machen. Das würde dich eine Stunde kosten, und die können das auf ihre Social Media Seite stellen. Man kann also jetzt auch Filme machen für alle die, die sich bisher keine Filme leisten konnten.

SP: Ich glaube diese positive Vision gibst da auch, dass sich da ganz viele neue Arten ergeben werden, mit denen man sein Geld verdienen kann. Es wird Zugang geben für Leute, die vorher keinen Zugang hatten. Die Location Scout geworden sind, obwohl sie vielleicht ein besseres Auge haben als mancher Kameramann. Da werden die Karten neu gemischt. Und es werden Jobs entstehen, die wir uns noch nicht vorstellen können, genau wie sich die Pferdekutscher den Tankwart noch nicht vorstellen konnten.

MH: Ich bin nach wie vor verblüfft wie klein das Interesse aus Deutschland ist.

SP: Ich hab’s am eigenen Leib erfahren. Ich hab THE GERAT CASTPY gesehen und gedacht „Also jetzt schlägst dreizehn“. Das habe ich allen geschickt, die mir einfielen und hab geschrieben: „Ihr MÜSST EUCH DAS ANGUCKEN. So in Stresser-Großbuchstaben. Das wird sowas von unser aller Business umschmeißen…“ Ich habe eine einzige Reaktion bekommen von einem anderen Producer, der schrieb: „Naja, da musste ja noch 150.000 reinstecken damit das wirklich gut aussieht, das wird niemals was werden“.

MH: Das ist so wie man immer dachte dass ein Computer so groß sein muss wie ein Wohnwagen.

SP: Ja, die Beharrungskräfte, ich weiß nicht ob aus Angst oder aus Betriebsblindheit, die sind da doch sehr stark. Wo ist eigentlich die erste AI Filmproduktion? Naja, ich hab sie ja auch noch nicht aufgemacht… Aber DU machst das! Darum Kudos nochmal dafür, das macht viel Spaß, ich bleib da dran. Danke nochmal für das Gespräch!

MH: Danke Dir!

Der Blog zum Hören

Ooops, schon die dritte Episode draußen, da dann wird’s aber Zeit hierfür, was?

Mit meinen fabulösen Kolleginnen von anno dunnemals, der Editorin Ilka Risse und dem Regisseur Daniel Lwowski, habe ich mich daran gemacht, diverse Themen zu vertonen, die auch schon durch meine Blogs geistern. Insbesondere fragen wir uns, was denn da gerade mit unserem geliebtem Metier, dem Filme machen, passiert, und wie es vielleicht weitergehen könnte. Mutige würden „Podcast“ dazu sagen! Gerne mal mit ungläubigem Gekicher und im vollen Gallopp durch die Wortspielhölle, aber versprochenermassen immer das Thema ZUKUNFT fest im Auge behaltend…

In der ersten Folge stellen wir uns vor und das, worüber wir zukünftig sprechen und Gäste befragen werden.

In der zweiten Folge stellen wir Euch die neuen Tools vor, die wir bereits benutzt oder ausprobiert haben von Elevenlabs über Heygen zu Suno.

In der dritten Folge „Mit Klonen vertonen“ haben wir unseren ersten Gast, Michael Ivert, und plaudern darüber, wie sich AI ins Synchron-Business vorarbeitet. Zuvor testet Ilka todesmutig am eigenen Leib das Stimm-Klon-Tool Elevenlabs und wird nacheinander unfreiwillig in eine Bayerin, eine Schottin und eine Russin verwandelt, ist aber am Ende auch wider Willen von den möglichen Ergebnissen beeindruckt. „Check it out“, wie meinetwegen Markus Kavka vielleicht sagen würde!

Gatekeeper ohne Gates

Mit einem befreundeten Musikproduzenten habe ich neulich über suno.ai gesprochen, ein Tool, das auf spektakuläre Weise aus Prompts Musik mit Text macht oder deine selbstgeschriebenen Texte vertont. Probiert das unbedingt aus, kleiner Tipp: „90ies hair metal power ballad“ geht immer.

Das Gespräch endete wie eigentlich jedes Mal: Mein Freund fand, die erzeugte Musik sei noch relativ generisch, und das läge ja wohl daran, dass es viel einfacher wäre, mit AI Filme zu machen, da ginge das ja bereits. Worauf ich wie jedes Mal antwortete, das sage er immer, und das läge schlicht daran, dass er sich mit Musik besser auskennte, und ich mich mit Filmen: Aus unserer jeweiligen Profiperspektive sähen wir in unserer jeweiligen Disziplin noch die Defizite von AI; in den Nachbardisziplinen aber schon nicht mehr so richtig.

Was wird hier eigentlich verhandelt, und warum führe ich mit vielen Profis ähnliche Gespräche? Mein Verdacht: Hier geht es um unsere eingebildeten oder realen Fähigkeiten als Distinktions-Profis. Wir halten uns für diejenigen, die wissen, wie state of the art Bewegtbildproduktion geht, und wir rufen um so lauter DAS IST NICHT GUT (GENUG) je mehr wir sehen, wie das aufholt und immer besser wird. Teil unseres Tagesgeschäfts ist es ja auch immer wieder, uns als Gatekeeper zu betätigen: unseren Beurteilungsvorsprung zu verteidigen, indem wir sagen was gut ist und was nicht und indem wir uns als diejenigen anbieten, die über den heißesten State Of The Art Scheiß verfügen, gebieten, ihn anbieten können. Und nichts macht einem Gatekeeper mehr Feuer unter dem Hintern als wenn er etwas aus der Ferne herangalloppieren sieht, das potenziell jede/n da draußen zu einem Profi machen könnte in unserem ureigensten Home Turf, wenn er sieht, dass sich um ihn herum die Mauern auflösen und es vielleicht bald gar kein Gate mehr zu keepen gibt.

Beim Angriff von Social Media auf unsere Budgets konnten wir uns zum Troste immer noch sagen: „Ha, die schmarotzen doch an den von uns mitdefinierten visuellen, erzähltechnischen etc. Standards; und wenn sie so gut werden wollen wie wir, dann müssen sie nach unseren Regeln antreten, und da sind wir halt besser, harr-harr!“. Egal ob das stimmt oder nicht, und egal ob das im SoMe Kosmos jemanden interessiert (zweimal nein, übrigens), für einen Gatekeeper ist das ein irgendwie tröstlicher Gedanke. 

Aber wenn sich die AI Tools so weiter entwickeln, wie sich das abzeichnet, dann passiert da weit mehr, als daß irgendwelche SoMe Creator mit Selfies eigenen Content erzeugen und Zuschauer-Aufmerksamkeit und Kundenbudgets abgreifen; dann kann bald jede/r mit 10 Euro im Monat für ein Dischord Abo Bewegtblid produzieren, das auf unserem Niveau mitspielt. 

DARUM geht es in all diesen Gesprächen.

Oder?

Cartoon Physics

Da hat grade ein Regisseur einen Cosmetics Film mit Hilfe einer AI „nachgedreht“, den er vor einem Jahr mit 30 Mann Team und jeder Menge Realdrehaufwand hergestellt hat. Netterweise hat er an die AI-Version eine Side-By-Side Comparison angehängt vom Original und von der AI Version.

Man kann da jetzt wieder mit dem Profi-Auge draufschauen und konstatieren, dass ja das Original total super individuell und kreativ sei, und dass die AI Version dagegen total generisch sei und ihr die letzten 5% an Rafinesse und Human Touch fehlten, die das Original so fantastisch machen. Das ist das, was verlässlich jedes Mal passiert, wenn ich mit anderen Branchenprofis das Thema diskutiere.

Das kann man noch 100 mal machen, so wie man auch gesagt hat „Digital drehen? Aber nie im Leben für Beauty Filme“. Aber wie oft noch?

Man kann das aber auch abkürzen und sich nur mal so probeweise mit folgendem Gedanken anfreunden:

Generative AI ist so weit. Die kann immer mehr insbesondere von dem generischen Bewegtbildkrempel umsetzen, der 95% dessen ausmacht, was da draußen noch immer mit riesigem Aufwand in die Welt gesetzt wird.

Und, daraus abgeleitet: Der immer kleiner werdende Unterschied zwischen Realdreh und AI Film interessiert mit Ausnahme von uns Branchenprofis wahrscheinlich immer weniger Konsumenten, und das sind diejenigen, für die das produziert wird. Das ist weder Zynismus nach Konsumentenverachtung, das ist eine sich abzeichnende Realität.

Was genau können wir als Producer nochmal? Eigentlich nur zweierlei: Wir können die Kreativen finden, die perfekt eine Idee, ein Skript zum Leben erwecken werden. Und wir beherrschen die Workflows, mit deren Hilfe diese Regie dann aus einem Skript und einem Budget einen erfolgreichen Film macht. Eine dieser beiden Kernkompetenzen scheint mir grade massiv im Umbruch zu sein.

Ihr kennt sicher den visuellen Standard-Witz aus diversen Looney Tunes Cartoons: Wile E. Coyote rast über die Klippe hinaus und rennt noch ein paar Meter weiter in der Luft über einen tiefen tiefen Abgrund, als wäre die Klippe noch da – erst als er sieht, dass er mitten im Nichts schwebt, stürzt er ab. Wenn ich jetzt abschweifen wollte, würde ich einen kurzen Exkurs über das hochinteressante Feld der Cartoon Physics einbauen (Law 1: „Any body suspended in space will remain suspended in space until made aware of its situation.“ etc.)

Das sollten wir aber in der Welt der Commercial Production Physics tunlichst vermeiden: daß wir einfach immer weitermachen als wäre nichts, während unter uns unsere Workflows wegbröseln und wir merken es erst, wenn wir schon mitten in der Luft schweben.

Arbeitsteilig

Einen Location Scout hatte ich mal mit dem shooting board zum scouten geschickt, und der hat aus reinem Spaß an der Freud schonmal den gesamten Film vorgedreht auf den Locations, die er vorgeschlagen hat. Er war dann ganz geknickt, als wir stattdessen in der Studiostraße in Babelsberg drehen mußten, weil für ihn der Film eigentlich schon fertig war. Kennt ihr bestimmt auch, solche Leute: Filmemacher durch und durch, die eigentlich nur aus Zufall in ihrem Department gelandet sind, die es aber in sich tragen, ganze Filme in ihrem Kopf und manchmal auch in echt schwuppdiwupp einfach fertigzumachen.

An diesen Scout mußte ich denken, als mir neulich dieser Film von JON FINGER begegnet ist.

Wer sich das anschaut und nicht denkt: „Wow! Will ich auch!“, der ist auf jeden Fall nicht aus derselben Abteilung wie mein Scout damals. Mir macht das wahnsinnig Spaß, diese (natürlich gefakte…) Unmittelbarkeit, diese Idee, man könne mit Hilfe von AI Tools einen Film erschaffen so, wie man früher seinen Freunden auf dem Schulhof eine Geschichte vorgeturnt hat. Was ergäbe das, konsequent weitergedacht, für einen Spitzenworkflow! Erst recht dann, wenn man unseren realen Workflow dagegenhält, der ja wirklich gern mal das Gegenteil davon ist: Überkompliziert, langsam, und seeehr seeehr arbeitsteilig.

Wie arbeitsteilig wollen wir denn sein, muß man sich doch regelmäßig fragen. Na klar ist der Input von den Profis aus den einzelnen Departments super. In den Kommentaren unter Jon’s Film stapeln sich deshalb auch die erwartbaren Reaktionen im Sinne von „Nichts wird je einen guten Storyboarder/ Art Director / DOP ersetzen, etc., gnagnagna“. Aber mal ehrlich, kennt ihr nicht auch dieses Gefühl der Ermüdung, das einen anpackt, wenn man denkt: „Woo-ha, 4 Tage 14 Stunden drehen, 70 People am Set, 2 Monate Post, und das alles für 60 Sekunden Film?“

Bei den Regisseur*innen kennt ihr sicher auch die beiden Enden des Arbeitsteiligkeits-Spektrums: Die eine, die immer vor dem Monitor sitzt und sagt: „Schon ganz geil, aber können wir noch eine drehen“? Wo man sich unwillkürlich fragt ob sich heimlich die Agentur-Kreative in den Regiestuhl geschmuggelt hat? Und am anderen Ende der Skala der Roberto Rodriguez Style Regisseur, der unabgesprochen mit einer eigenen Mühle am Set auftaucht und schnell selbst mal noch ein paar alternative Takes dreht, kann man ja immer gebrauchen, ihr werdet mir dankbar sein im Schnitt! Der einen im Prep schon so sehr mit Detailgesprächen zuballert, daß man ihm am liebsten alle Jobs auf der Produktion anbieten möchte inklusive dem der Produktionsleitung?

Anyways, ich möchte gar nicht auf „Wir werden alle unseren Job verlieren“ Szenarien rumreiten. Auch das pixelschubserische Qualitätsgejammer anläßlich von Jon’s Film – „Ja, aber das wird dir kein Kunde jemals so abnehmen, weil a,b,c“ kann ich mir selber ausdenken, merci bien.

Ich finde es beim Zuschauen in erster Linie inspirierend & herzerfrischend, welche Möglichkeiten sich hier aufzeigen für einen alternativen, schnelleren, spontaneren Workflow – direkt aus dem Kopf von jemandem, der sich einen Film ausdenkt, schwuppdiwupp zum fertigen Film.

Oder?

Do Producers dream of AI enabled films?

Consumer können mehr und mehr selbst zu Producern werden, wie ich’s neulich schon bebloggt hatte. Sie müssen dafür nicht gleich ganze Filme from scratch produzieren, sie können sich zukünftig auch anhand bestehender Filme aussuchen, wie, auf welchem Level und in welchem Department sie gern in einem Film eingreifen und ihn auf diese Weise neu oder mitproduzieren wollen. Sie können sich gewissermassen so Film School mässig von der Seite des fertigen Films her an das Produzieren heranrobben.

Ich zum Beispiel verabscheue ja den seifigen und einschläfernden Vangelis-Soundtrack zu BLADE RUNNER. Das Netz ist voll von sehr emotional geführten Debatten dazu – mir versaut er tatsächlich den kompletten Film.

Die Producer’s Notes, die Ridley Scott nach seiner 3. Schnittfassung zu lesen bekam, fragten unter anderem nach „more tits“, und schon im ersten Satz: „Where is the Vangelis Music“? Die haben sie leider am Ende bekommen. Wenn ich jetzt aber in naher Zukunft Ridley Scott rächen und den Soundtrack einfach austauschen könnte: „Hey AI, unterlege mir bitte BLADE RUNNER mit einem Soundtrack im Stil der Talking Heads“? 

Zunächst hab ich ja gedacht, daß uns demnächst AI mit Reglern beim Produzieren hilft, also etwa Midjourney mit speziellen Reglern, an denen ich Brennweite, Einstellungsgröße und soweiter finetunen kann. Aber vielleicht ist es genau so spannend, wenn es analog zum Sound und Farb – Reglern an der Glotze ein paar zusätzliche AI Regler gäbe wie den „Wes-Anderson-Style-Regler“; den „Hauptdarsteller“- Regler; den „Synchronsprache“-Regler?

Das passiert ja eh bereits massenhaft, die Travestie bestehender Filme ist ein riesiges Sub-Genre des generativen AI Outputs. DUNE im Stil von Jodorovsky (der tatsächlich mal einen Anlauf dazu unternommen hatte). ALIEN im Stil von Stanley Kubrick. Und JEDER DENKBARE FILMTITEL im Stil von Wes Anderson, natürlich. Das ist beileibe nicht ohne Vorbilder aus der Vor-AI-Zeit: Der Kern des Erfolgs von NETFLIX beruht auf NETFLIX‘ Fähigkeit, Travestien und Genre-Remixes nach Uservorlieben herzustellen: „Die User gucken am liebsten Politthriller und Kevin Spacey? Dann produzieren wir ihnen einen Politthriller mit Kevin Spacey!“ Aber AI ist jetzt auf dem Weg, mehr und mehr dieser eigentlich originären Producer-Tools an die Consumer selbst auszulagern. 

Schauen wir uns das auf Basis bereits existierender Filme an. Was daran macht AI auf einmal „anfassbar“ für uns Consumer? Nehmt mir für einen Moment bitte einfach ohne weitere Link-Belege ab, daß das alles bereits erkennbar möglich ist mit AI Consumer Tools, und daß da nur noch jemand rasch ein Frontend mit ein paar Reglern entwickeln müßte bitte, an dem man all diese Faktoren gleichzeitig tweaken kann, und die AI spuckt ruckzuck nach zwei Stunden Rechenzeit einen neuen Film aus:

_Darstellerauswahl: Niemand braucht mehr MoCap, das geht auf Basis von bestehendem Video Material. Also Hauptrollen austauschen. Nebenrollen austauschen. Alle Darsteller sollen Männer sein. Frauen. Frösche.

_Musik: Easy. Ging ja schon vorher, aber jetzt trennt einem die AI auf Wunsch die einzelnen Instrumental-Spuren; das Voice Over von der Musik und den Sound FX. Also anderer Komponist; nur Instrumentals; Orchesterversion statt Surfgitarre… Das kommt als erster AI Regler sobald die Rechtefragen geklärt sind, Wetten werden noch angenommen.

_Sprache & Sprecher. Gedubbt haben die Produzenten schon früher, aber jetzt können wir’s selbst. Und die AI trennt nicht nur die Spuren dafür, sie generiert nicht nur neue Stimmen, sie passt auch die Mimik & Mundbewegungen der Darsteller an die gesprochen Sprache an. Also Saturday Night Fever mit meiner Stimme für John Travolta, und alle anderen Stimmen von Olivia Newton John.

_Art Department: Eigentlich einfacher als MoCap. Also alle Möbel sollen bitte Art Deco sein. Philipp Starck Design. Giger.

_Styling: Alle tragen Kaftane. Oder nichts. Taucheranzüge. 20er Jahre Klamotte. 

_Location: alle Strassenszenen & Häuser Exteriors Hong Kong statt Detroit. Der Wald wie in Neuseeland. Dänemark. Ägypten.

_Framing: AutoFill machts möglich, ich habe schon völlig sinnbefreite erste AI Versionen von BladeRunner im Hochformat gesehen, aber hier geht’s ja nicht um meinen eigenen Geschmack, also bitte 9:16 für alle die das interessiert, was ich lange Zeit nicht glauben konnte, scheint aber so’n heißes Ding zu sein mit dem senkrecht gucken.

_VFX: Mehr so STUDIO GHIBLI, weniger so AVENGERS… 

_Und natürlich alle Kombinationen aus den obigen Beispielen und diverse andere Details, die Leuten wichtig sind. 

Ein Beispiel gefällig? Bittesehr, hier kommen die

AI Producer’s notes von Stephan Pauly zu Ridley Scott‘s BLADE RUNNER 

Schon ganz gut, aber ich hätte da gern noch folgende Änderungen:

Hauptrolle: vielleicht mal mit Christopher Walken aus ca. 1985 besetzen (weil Harrison Ford einfach nicht gleichzeitig Indiana Jones, Han Solo und Deckard sein kann); Bösewicht: Clark Gable statt Rutger Hauer (weil Rutger Hauer eh super ist, aber ich hab schon lange keinen guten Film mehr mit Clark Gable gesehen. Wie, schon tot? Das ist doch der AI egal!) 

Aspect Ratio: Finger weg, die bleibt natürlich in 2.39:1 Cinemascope, ihr Banausen!

Art Department: alle visuellen JAPAN Referenzen in VIETNAM Referenzen umwandeln (weil der JAPAN Takeover der Welt eindeutig eine 80er Jahre Idee ist, die nie so richtig eingetreten ist, und ich einen VIETNAM – Takeover der Welt interessanter fände) 

Autos, Flugobjekte und Gebäude bitte von LUIGI COLANI designen lassen (schlicht weil’s lustig wär)

Sprache bitte mal in Südafrikanischem Englisch (siehe oben)

Musik bitte wie gesagt von den Talking Heads, gerne im Stil meines Lieblingsalbums „Remain In Light“, aber ohne Vocals.

Im Ernst: All das rauscht doch einem Filmproduzenten täglich durch die Rübe, und nicht „more tits and Vangelis“ – so jedenfalls meine romantische Vorstellung von einem Filmproduzenten, und bald kann er sie es tatsächlich einfach ausprobieren! Der irre Twist ist ab jetzt allerdings, daß das auch für uns Consumer gelten wird. Mal alle technischen und rechtlichen Fragen außen vorgelassen, gibt es einen Markt für solche customizable Filme? Ach, mir doch egal, ich möchte eigentlich nur tagelang mit meinen neuen AI Reglern an BLADE RUNNER rumspielen, aber vielleicht bin ich auch nur ein wenig anders als die anderen kleinen Kinder auf dem Spielplatz.

Welchen Film würdet ihr euch vorknöpfen?

Und an welchen Reglern möchtet ihr gern drehen können?

Tool Tales 02: Das Schweizer Taschenmesser

Als ich vor geraumer Zeit mit Freund M. auf Korsika wandern war, mussten wir für Tage unsere eigene Verpflegung über die Gipfel schleppen – was hätte sich da mehr angeboten als ein ganzer korsischer Schinken? So saßen wir morgens, mittags und abends und säbelten unsere einzige Nahrung von einem immer leichter werdenden Schweinebein herunter, der Freund mit seinem Schweizer Taschenmesser, und ich mit einer Art gigantischer Crocodile-Dundee-Klappmachete. Was nach ein paar Tagen dazu führte, daß Freund M. zu Recht Angst bekam, er würde das Ziel wegen Unterernährung nicht erreichen, weil mein Messer (und ich, natürlich) einfach immer dreimal soviel vom Schinken runtergeschnitten bekam wie er mit seinem mickrigen Schweizermesser. Er hat überlebt, aber er hatte auf die harte Tour eine wichtige Lektion lernen müssen: Schweizer Taschenmesser sind bestimmt eine ganze Menge Sachen, aber sie sind einfach keine guten Messer.

Verwunderlich ist für mich deshalb, daß es das Swiss Army Knife geschafft hat, schlechthin DIE positiv besetzte Metapher zu werden für ein Multi Purpose Tool. Wer immer sie benutzt, unterschlägt damit ja meistens, daß das namensgebende Key Feature zwar mit im Multi Purpose Paket enthalten ist, aber daß es wie alle anderen darin zusammengepferchten Anwendungen weniger taugt als seine Standalone Variante, das Messer.

Wie aber verhält es sich mit unserer Kalkulationssoftware, dem Swiss Army Knife des Producers? Sie ist ja definitiv ein Multi Purpose Tool, weil sie so viele Dinge kann: 

_tausend buchhalterisch wichtige Kostendetails wie KSK, 50A, AGA präzise abbilden. Jetzt auch die Anrechenbarkeit der Catering-Ausgaben für Festangestellte Mitarbeiter:innen, hurrah!

_ein Regie-Treatment kalkulatorisch nachbauen

_einen Gesamtpreis ermitteln

_Überstunden berechnen

_Auslandskosten getrennt von Inlandskosten ausweisen

_eine Preisvorgabe um haargenau 10% überbieten, damit man sich anschließend auf die Preisvorgabe runterhandeln lassen kann

_Eventualitäten wie teurere Flüge abpuffern

_Schlechtwettertagskosten vorab einschätzen

_die Basis eines Angebots bilden

_eine seeeehr vollständige Leistungsbeschreibung ausspucken

_als Kostenüberwachungstool funktionieren

Etc.

Natürlich kann sie auch diverse andere wünschenswerte Sachen nicht: Rechnungen & Mahnungen erstellen z.B., oder Wetterdaten & Wechselkurse abbilden. Zusatzangebote integrieren. Versionenverläufe nachzeichnen.

Welche der vielen Funktionen ist denn nun aber das Crocodile-Dundee-Messer unseres Kalkulationsformulars? Da gibt es bestimmt eine Menge möglicher Antworten, aber hier ist mein shot: Das Messer unseres Kalkulationsformulars ist die Möglichkeit, effizient und präzise eine Regie-Interpretation kostentechnisch abzubilden (…nach den Gepflogenheiten der Producerkunst in der speziellen Ausprägung der jeweiligen Firma vor dem Hintergrund der allgemeinen Auftragslage und der Auftragslage der Firma im Speziellen etc. etc. etc, I know…) 

Wenn man das für sich beantwortet hat, und die Antworten können je nach Nutzerperspektive bestimmt auch anders ausfallen, dann sollte man sich vielleicht als nächstes fragen: 

Ab wann & wodurch wird dieses Key Feature so eingeschränkt und nahezu unbrauchbar wie die mickrige, nicht arretierbare Klinge eines Swiss Army Knifes? Einfach mal so als offene Frage stehen gelassen. Ist ja ein Blog, da geht das.

Natürlich muß ich einräumen, daß Metaphern schnell in die Irre führen, weil sie eben nur Metaphern sind und keine eins-zu-eins Abbildungen der gemeinten Realität. Vielleicht kann ja Software viel mehr Wunderdinge als die Schweizer Taschenmesser-Ingenieure. Vielleicht kann man im Unterschied zur physischen Messerwelt in der deutlich weniger physischen Software-Welt undendlich viele Features hinzuaddieren, ohne daß das namengebende Key Feature dadurch auch nur einen Deut schlechter wird.

Aber.

Tool Tales 01: Software, die Producer produziert

Momentan denke ich viel darüber nach, wie denn eine Software beschaffen sein soll, die Producern beim Produzieren helfen kann. Dabei landet man – ich – schnell dabei, wie man selber angefangen hat, Produktions-Software zu benutzen. 

Der Geschäftsführer, der mich in seine Produktion geholt hat, hatte mir in einem Satz den Unterschied zwischen einem Bidding Producer und einem Line Producer erklärt: „Du mußt für dich entscheiden wer du sein willst: Willst du lieber morgens als erster die Studiotür auf-, und abends als letzter wieder zumachen, oder willst du lieber ein Kalkulationsformular auf- und wieder zumachen?“ Was nicht bedeuten sollte, dass man in dem Laden nicht auf beiden Positionen minimum 16 Stunden am Tag geschackert hätte, aber der Unterschied hat mir trotzdem sehr eingeleuchtet. Ich habe mir im Laufe der Zeit beide Seiten lange & im Detail angeschaut, ohne mich je wirklich für eine entscheiden zu müssen. Aber zunächst habe ich Musikvideos gebiddet was das Zeug hält, und das einfach so und oft eher trotz als mit Unterstützung diverser Mitstreiter, die das entweder selbst schon seit Jahren machten.

„Du willst Producer sein? Du kennst keinen einzigen Beleuchter in Berlin!“ hat sich mal einer bei mir beschwert. Der war eher von der Fraktion „Studiotür“. „Du willst Producer sein? Du weißt noch nichtmal, daß die Beleuchter laden & rückladen, und daß man deswegen die LKW zwei Tage länger als die Drehtage buchen muss?“ Das war mein sog. Herstellungsleiter, den es zutiefst kränkte, dass er a) als studierter Filmproduzent in einer Musikvideobude arbeiten musste, und das auch noch, b) mit Menschen wie mir, die sich anmaßten, zu kalkulieren, ohne dieselbe heilige Ausbildung genossen zu haben. Und der sich deshalb schlicht weigerte, mich beim Kalkulieren zu coachen.

Was aber egal war: Es brauchte nämlich weder Beleuchtertelefonnummern noch LKW-Wissen, um das Bidden zu lernen. Dazu brauchte es nur 1. eine Produktionsfirma, in der viel gebiddet & produziert wurde, 2. Zugang zu den hunderten von Quotes, die auf dem Server rumlagen, und 3. Zugang natürlich zu den entsprechenden, auf dieser Basis entstandenen Werken. In diesen Quotes war genug Weltwissen gespeichert, als daß man Reverse Engeneeren konnte (ich kenne kein deutsches Wort dafür), wie man das entsprechende Musikvideo hergestellt hatte; und nach dem Vergleich von 20 Quotes und 20 Musikvideos konnte man sich selber an ein leeres Formular setzen und ein Script kalkulieren dergestalt, dass es selbst beim schlechtgelaunten Herstellungsleiter durchrutschte, der sämtliche Quotes gegengelesen mußte, bevor sie an die Kunden rausgingen. Quotes ließen sich damit basteln, die dermaßen plausibel waren, dass man sie beim Kunden verkauft bekam. Und, Feuerprobe schlechthin: die dann auch noch in den Händen einer echten Studiotür auf- und wieder zuschließenden Produktionsleiterin ein echtes Musikvideo ergaben.

Man könnte also sagen, dieses Tool – nicht das leere Formular allein natürlich, sondern das in diversen fertigen Quotes gespeicherte Produktionswissen – hatte quasi über Nacht einen Bidding Producer aus mir gemacht, ganz ohne HFF Studium, und ganz ohne Beleuchterkontakte. Good Job, Tool! 

Was ist also nochmal die Frage aller Fragen? 

„Wie gut & selbsterklärend bildet ein Tool die Wirklichkeit ab, die es am Ende erzeugen helfen soll, ohne dabei im Weg zu sein; ohne daß man sich durch Layers und Layers an Politics, an Verwaltung, an verkrustetem Detailquatsch durchkämpfen muß?“ 

Nur dann nämlich bleibt es so zugänglich wie möglich, nur dann ist es in der Lage, neue UserInnen zu empowern, selbst so schnell wie möglich und so gut wie möglich Producer zu werden. Nur dann ist es ein Tool, das Producer produzieren kann.

Ja, vielleicht ist DAS die Frage alles Fragen! Und dann kommen die ganzen anderen.