Anzeige
Anzeige
Bildsynchrone Motion Control bei Musikvideo

Innovatives Retro

Motion Control ist zwar aufwendig, aber nicht unbedingt kompliziert. Es sei denn, man will bei einem Doppelgängertrick bildsynchron arbeiten und muss gleichzeitig mit einem begrenzten Budget zurechtkommen. Rolf Ableiter hat für ein Musikvideo eine erstaunlich unkomplizierte Lösung entwickelt, die auf analoge Studiotechnik zurückgreift und in unserer Ausgabe 11.2019 davon berichtet.

Im Musikvideo „Der Zauberkoffer“ spielen vier Schlagzeuger miteinander, dem Augenschein nach identische Vierlinge. Was ist die Vorgeschichte dieses ungewöhnlichen Projekts mit dem Schlagzeuger Marcel Millot?
Wir sind langjährige Freunde. Das liegt auch daran, dass ich neben meiner Tätigkeit als Filmer auch Musik mache. Von daher gab es die persönliche Verbindung schon. Als Projekt war es für mich naheliegend, weil ich die Synchronität meines Motion-Control-Systems ausprobieren wollte. Können wir so genau sein, dass tatsächlich sogar musikalische Elemente funktionieren? Deswegen habe ich Marcel gefragt, ob er den Spaß mitmacht.

Wann sind Sie denn dem Problem der Synchronität bei Motion Control zum ersten Mal begegnet?
Prinzipiell ist bei Motion Control, zumindest bei den einfacheren Systemen, die man sich so leisten kann, der Bildinhalt selbst nicht synchron. Das ist das Problem. Man kann die Kamerafahrt ja immer wieder identisch wiederholen, aber dass der Inhalt des Bildes auch synchron zueinander ist, bekommt man in der Regel gar nicht hin. Man kann dieselbe Fahrt zwar mehrfach machen, auch mit den gleichen Personen, die dann aber zwangsläufig zu unterschiedlichen Zeiten in dieser Fahrt agieren. Das heißt, wenn sie miteinander agieren wollen, miteinander reden wollen, irgendetwas miteinander tun, dann muss auch der Inhalt synchron sein. Genau da stoßen die Systeme, die man sich so leisten kann, außerhalb vom Techno Crane und Konsorten eben an ihre Grenzen.
Ich hatte die Herausforderung mit meinem System bei einem Tatort-Dreh. Da sollte der Hauptdarsteller Ulrich Tukur mit sich selbst sprechen und auch bestimmte Dinge tun, die eine Person übergibt etwas an die andere Person. Genau da fing es eben an, dass wir den Bildinhalt synchron halten mussten und der Schauspieler auch nach jedem Take zumindest hören musste, was er vorher gespielt hatte. Und zwar synchron hören musste, damit er darauf reagieren konnte. Das war die Herausforderung. Das Problem hatte ich für diesen Tatort-Dreh dann auch gelöst. Allerdings waren wir da nicht framegenau, was aber für die Interaktion, die in der Szene stattfand, gereicht hat. Danach habe ich mir dann überlegt, dass es auch möglich sein muss, dass es framegenau ist. Das war eben dann die Herausforderung für das Projekt „Der Zauberkoffer“.

Vielleicht bin ich hier etwas schwer von Begriff, aber wenn Dinge in der Zeit nacheinander stattfinden, dann sind sie doch nie synchron?
Man hat halt verschiedene zeitliche Ebenen. Wenn ich jetzt eine Kamerafahrt habe, die 30 Sekunden dauert, und ich drücke auf Start, dann geschieht innerhalb dieser 30 Sekunden etwas.

Der Schauspieler könnte zum Beispiel während der Fahrt ins Bild gehen und seinem Gegenüber, das er auch spielt, einen Bleistift geben wollen.
Wir drehen also diese Fahrt und der Schauspieler übergibt den Stift. Und jetzt mache ich dieselbe Fahrt noch einmal. Aber wie weiß der Schauspieler, an welcher Stelle er die Hand ausstrecken soll, um den Bleistift entgegenzunehmen? Genau das ist die Herausforderung: der nichtsynchrone Bildinhalt, den man ja normalerweise nicht hat. Man muss also die Möglichkeit haben, das, was man aufgenommen hat, wieder abzuspielen, so dass der Schauspieler auf einem Bildschirm sieht oder im Ton hört, was er getan hat. Aber genau das geht leider mit den preiswerteren Systemen nicht. Man kann nicht gleichzeitig mit der Kamera etwas aufnehmen und abspielen und so synchron bleiben.

Sie mussten also eine technische Lösung finden, damit, um in unserem Beispiel zu bleiben, der Schauspieler weiß, wann exakt der Bleistift bei ihm ankommt und er ihn nehmen kann. Und das kann er nur durch ein synchrones Playback.
Genau, das ist eben der synchrone Bildinhalt. Eine Kamerafahrt immer wieder gleich zu wiederholen ist das eine. Das können diese Systeme. Aber dafür, dass der Inhalt des Bildes dann synchron ist, muss man im Prinzip einen Timecode schaffen, der alle beteiligten Geräte beliefert, im Normalfall mit Genlock. Was aber bei solchen Systemen nicht geht.

Bislang musste man also hoffen, dass der Stift halbwegs pünktlich übernommen wird.
Das hatte aber beim Tatort eben nicht gereicht. Ich kann jetzt dummerweise die Szene nicht verraten, denn sonst bekomme ich richtig Ärger, aber die beiden Figuren reden auch miteinander und reagieren aufeinander. Dazu mussten wir Ulrich Tukur eben den Ton synchron aufs Ohr geben, damit er entsprechend reagieren konnte. Die Lösung war da im Prinzip so, dass wir von unserem System vor Ort den Ton aufgenommen haben. Beim Start meines Motion-Control-System habe ich einen Pieps herausgegeben. Das hat der Ton am Set aufgenommen, zusammen mit der Hälfte des Dialogs. Dann hat er mir die Datei mit Pieps und Dialog gegeben, die ich dann … ach, das war alles furchtbar kompliziert, aber es hat funktioniert.

Unser Beispiel des Stiftes oder eines Dialogs ist zwar zeitkritisch, aber nicht so, dass es da auf ein Frame oder zwei ankäme. Aber beim Schlagzeug ist ja ganz exaktes Timing wichtig.
Das muss in der Tat framegenau sein. Genauer geht es ja mit den bestehenden Genlock-Systemen auch gar nicht. Nun ist es bei den bezahlbaren Motion-Control-Systemen von Herstellern wie DitoGear oder Kessler mit dem Cine-Drive, also Systeme, die im bezahlbaren Bereich so um die 10.000 Euro liegen, so, dass man da in der Regel eine Audiodatei abspielen kann. Wenn man die Systeme startet, läuft eine Audiodatei los. Was ich dann gemacht habe: ich habe als Audiodatei einen analogen SMPTE-Timecode gestartet. Es ist eigentlich ziemlich simpel, wenn man so darüber spricht, aber man muss erst einmal darauf kommen! Ich habe eine SMPTE-Audiodatei generiert, die ich dann vom Motion-Control-System abgefeuert habe. Dadurch war dieses System der Master für alles, was daran angeschlossen war: eine DAW Digital Audio Workstation für die Mehrspuraufnahmen, und ein Lichtpult. Die liefen mit diese Timecode-Datei, die ich während der Aufnahmen immer wieder ausgegeben habe. Also lief jedes Mal, wenn ich die Fahrt gestartet habe, die DAW mit allem, was aufgenommen wurde. Dadurch konnte der Schlagzeuger ganz exakt und framegenau das Playback hören und dazu spielen.

Diese SMPTE-Datei war also ein LTC-Timecode.
Genau. In den 1980er Jahren hat man Videotapes und Audiobänder über diese Art und Weise miteinander gekoppelt und synchronisiert. Dann hatte man zum Beispiel auf einem Tonband auf der Spur 24 diese SMPTE-Datei. Und wenn man dann dieses Tonband gestartet hat, lief alles mit. Genau daran habe ich mich erinnert, weil ich in den 1980ern in Tonstudios gearbeitet habe und dachte, eigentlich müsste man mal probieren, ob man das nicht damit hinbekommt. Man braucht dann halt einfach einen LTC-Eingang bei den Geräten, die angeschlossen sind, und schon funktioniert das! [10666]

Mehr lesen? Das komplette Gespräch finden Sie hier!

Anzeige

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.