Hervorgehoben

Die nächste Trainingsrunde: Jetzt müssen die Profis ran

Letztes Jahr habe ich mal eine obskure Firma ausgecheckt, die offensichtlich im großen Stil das Training von LLMs an jeden deutschen Muttersprachler ausgelagert hat, der irgendwie einen Internetzugang besaß (weitere Qualifikationen waren da nicht erforderlich). Das war so ein bisschen wie die „In Welchen Bildern Siehst Du Ein Fahrrad“ Puzzle, aber mit Text. Und überraschenderweise für echtes Geld. Komplett wirr und so chaotisch aufgesetzt, dass man sich nicht vorstellen konnte, wie aus so einem verkorksten Prozess irgendeine valide Information für irgendwas sich extrahieren lassen sollte, aber auch slightly unterhaltsam. Ich habe das nach zwei Stunden milden Interesses schnell meiner Tochter umgehängt, die damit ihr Taschengeld aufgebessert hat. Wenn ChatGPT also für euch manchmal wie ein 13-jähriges, sehr meinungsstarkes und dabei oft schlechtgelauntes Teenagermädchen klingt: Sorry, das war ich. 

Aber jetzt wird’s ernst! Die LLMs sind ja inzwischen offenbar mit allem trainiert, was nicht bei drei auf den Bäumen war – Internet ist alle. Benedict Evans hat grade diesen Bloomberg-Artikel verlinkt, der davon berichtet, dass OpenAI diversen Ex-Bankern 150 Dollar die Stunde zahlt dafür, dass sie OpenAI’s LLM beibringen, was da draußen im Netz nicht sowieso schon rumschwirrt. Aber Banker scheinen nicht die einzigen zu sein, die auf bisher unzugänglichen Informationen = Trainingsdaten hocken.

Wir hatten im Podcast ja mal den sehr schlauen Prof Björn Stockleben von der Filmuni Babelsberg zu Gast, der damals sehr zu meiner Beruhigung darauf hinwies, dass zwar die Regisseure, Editoren und DPs ein echtes Problem hätten, weil ihr Zeug tonnenweise und allgemein zugänglich im Netz zu finden sei und damit auch als Trainingsdaten für die gierigen Techkonzern-AIs zur Verfügung stünde; dass aber wir Producer mit unseren spezifischen Daten traditionell deutlich restriktiver umgingen – niemand kann sich bisher auf YouTube anschauen, wie man denn eine belastbare Kalkulation für drei Drehtage in Kapstadt für einen Autofilm aufsetzt. 

Das scheint inzwischen auch OpenAI oder irgendwelchen anderen Techkonzernen aufgefallen zu sein. Mein LinkedIn Channel wird seit Kurzem geflutet von „Jobangeboten“ einer Company namens MERCOR, die für AI Hersteller nach Experten aus unserer Domain sucht: Executive Producer, Film Production Specialist, Film Producer, Series Producer, Independent Filmmaker, Senior Producer, Line Producer, Producer, Screenwriter, Editor, Post Production Supervisor etc.* Worum geht’s? Darum, einer AI beizubringen, wie die genannten Jobs funktionieren. Da versucht also gerade ein AI Entwickler, im Bereich Film alles Wissen sich einzuverleiben, was er bisher aus YouTube, Netflix etc. noch nicht klauen extrahieren konnte.

Damit sind wir wieder am Anfang des Fear Cycles in Sachen AI: „How would you turn an AI model into an expert in your domain?“ ist der Titel des angedrohten AI Job Interviews. Oder anders formuliert: „Verrate uns, wie wir dich überflüssig machen können, im Internet haben wir leider zu wenig dazu gefunden“. Klingt irgendwie nach Verrat und sich-ins-eigene-Fleisch-schneiden, aber ich habe da mal ein Fax hingeschickt. Ich habe da ja schließlich einige goldene Weisheiten aus einigen Jahrzehnten gut abgehangenen Producerwissens zu bieten wie „Bleib Up Top Date damit, welches Restaurant deine Kunden wohl am Besten finden werden“ und „Immer 3% billiger anbieten als die Mitbewerber“. Mal sehen, ob sie rausrücken damit, in wessen Auftrag sie eigentlich unterwegs sind. Keeping you posted!

*Meine Lieblings-AI Gemini hat mir inzwischen verraten, daß die Company Mercor selbst wohl legit ist (mit 10 Milliarden USD bewertet; die Üblichen Verdächtigen Investoren wie Peter Thiel etc.). Aber jetzt kommt der Twist: diverse Applikanten haben bereits vermutet, daß die Ausschreibungen keine echten Jobs bewerben, sondern daß sie lediglich Mercors Interview-AI optimieren sollen. Klingt krank, aber nicht abwegig. 

**Ein weiterer Bloomberg-Artikel zum selben Thema: „Ex McKinsey Consultants are training models to replace them“

Ein Tausendstel

Seit der AI Hype angefangen hat, versuche ich, an den ganzen ästhetischen, kreativen, gesellschaftskritischen, arbeitsmarkbezogenen und sonstigen Diskussionen absichtlich vorbeizuhören und mich stattdessen zu fragen: Was ist denn jetzt das Disruptionspotenzial von generativer AI in unserem Business? Noch genauer: Kann man da, wir sind ja schließlich Producer, irgendwie mal ’ne Zahl dranhängen bittesehr? Könnte man ja wohl mal versuchen. Schließlich hängen wir ja auch jeden Tag Zahlen an Agenturskripte, die regelmäßig kaum verbindlicher sind als die Frage „Was kostet eigentlich so ein AI Film“, also let’s go for it!

Der Regisseur Paul Trillo hat Zugang zu SORA und hat damit ein fantastisches Musikvideo gemacht, eine wahre Materialschlacht nach klassischen Maßstäben. Im FX GUIDE gibt es eine Analyse, die greifbar macht, was da auf uns zurast.

Trillo hat rund 240Minuten generiert für 4Minuten finalen Film, das macht eine shooting ratio von 60:1. Eigentlich nix Besonderes, erst recht nicht für ein Tool das noch in den Kinderschuhen steckt.

Irrerweise hat er dabei nur ein paar wenige Übergänge mit After FX getrimmt und alles gegradet, der Rest kommt so direkt aus SORA – woran man sich schon alles gewöhnt hat! Ich hab schon so Kommentare gehört wie „Holt mich nicht ab“… Ich selber bin noch beim dritten Mal Gucken geflasht von der Materialfülle, der weiredness, dem Tempo, dem Sog, den das erzeugt, aber egal: anderes Thema.

Der FX Guide hat die Kosten für die Computing-Leistung dahinter mit rund 650$ berechnet. Nicht für SORA wohlgemerkt, die haben noch gar kein Preismodell, aber für die erforderliche Computing Power, die man anhand von Tech Specs berechnen kann, die SORA veröffentlicht hat. Zu teuer für Amateure, aber ein Schnäppchen für professionelle Anwender.

Zum Vergleich: Dieses Musikvideo nach klassischen Gesetzen herzustellen ist budgetär kaum abbildbar bei der Anzahl an Szenen, Sets, Darstellern etc. 50-60 Sets; sagenwirmal 10 Drehtage, tonnenweise VFX… Egal, nehmen wir an, es hätte abgesehen von Regiegage und Konzeption, die ja für die SORA Version auch anfallen, wild guess: 650.000 gekostet, nach oben hin seeehr offen. Dagegen stehen 650 für Computingkosten.

Wenn also mal jemand das Disruptionspotenzial von Sora für den Kernbereich unseres Wirkens – das Filme Machen – mit einer Zahl versehen möchte, hier ist sie: Der Aufwand sinkt potenziell auf ein Tausendstel. BÄÄÄÄÄM!

Ist ja nur ’ne Zahl? Geht mal zu einem Autokonzern und erklärt denen, daß jemand grade eine Methode gefunden hat, ihr Auto für ein Drittel der Kosten herzustellen. Da fällt denen der Kitt aus der Brille. Bei einem Drittel, nicht bei einem Tausendstel.

Und ja, ich weiß: Es gibt X Gründe, warum das Video von Paul Trillo noch nicht so gut ist, als wenn man alle erdenklichen verfügbaren High End Tools und Realdreh dafür aktivieren würde. „Die letzten 5% sind immer die schwierigsten“, „Die Characters sind noch nicht konsistent“ etc etc yadda yadda yadda. Aber das ist doch alles MiMiMi angesichts des POTENZIALS einer Ersparnis von 1.000:1! Hallo, Kapitalismus und so???

Mal anders herum gefragt: Glaubt ihr, daß diese Ratio 1.000:1 genügend Anreiz hergibt, um Character konsistent zu machen und die letzten 5% auch noch hinzubekommen? Glaubt ihr, daß Sam Altman ein paar Milliönchen von den 7 Billionen Dollar ($7.000.000.000.000 – auch nur eine Zahl, aber eine Zahl mit 12 Nullen, mehr als ein Viertel des GDP der USA), die er für AI gern aufstellen möchte, da reinstecken wird? Wetten und Gegenwetten bitte gerne in die Kommentare.

Oh, und wer Langeweile hat, hört sich einfach unsere jüngste Podcast-Folge an (oder die davor, die ist auch super): https://www.filmmakingfuture.com

Der Blog zum Hören

Ooops, schon die dritte Episode draußen, da dann wird’s aber Zeit hierfür, was?

Mit meinen fabulösen Kolleginnen von anno dunnemals, der Editorin Ilka Risse und dem Regisseur Daniel Lwowski, habe ich mich daran gemacht, diverse Themen zu vertonen, die auch schon durch meine Blogs geistern. Insbesondere fragen wir uns, was denn da gerade mit unserem geliebtem Metier, dem Filme machen, passiert, und wie es vielleicht weitergehen könnte. Mutige würden „Podcast“ dazu sagen! Gerne mal mit ungläubigem Gekicher und im vollen Gallopp durch die Wortspielhölle, aber versprochenermassen immer das Thema ZUKUNFT fest im Auge behaltend…

In der ersten Folge stellen wir uns vor und das, worüber wir zukünftig sprechen und Gäste befragen werden.

In der zweiten Folge stellen wir Euch die neuen Tools vor, die wir bereits benutzt oder ausprobiert haben von Elevenlabs über Heygen zu Suno.

In der dritten Folge „Mit Klonen vertonen“ haben wir unseren ersten Gast, Michael Ivert, und plaudern darüber, wie sich AI ins Synchron-Business vorarbeitet. Zuvor testet Ilka todesmutig am eigenen Leib das Stimm-Klon-Tool Elevenlabs und wird nacheinander unfreiwillig in eine Bayerin, eine Schottin und eine Russin verwandelt, ist aber am Ende auch wider Willen von den möglichen Ergebnissen beeindruckt. „Check it out“, wie meinetwegen Markus Kavka vielleicht sagen würde!