Der ganze Workflow ist halt nicht endusertauglich und nicht dokumentiert. Man muss im Pythoncode die Dateinamen (von Bild und Audio) setzen, das Script von der Kommandozeile aus starten, dann entstehen für jeden Frame eine frameXXX.png. Dann ruft man ffmpeg mit gefühlt 17 Kommandozeilenoptionen auf, dass es die frameXXX.png-Dateien mit dem Audiosnippet in ein Video zusammenstellt. Dabei muss man die Framerate passend setzen und geeignete Codecs wählen.

Könnte man zwar alles automatisieren, aber solange du weißt, zu tun ist und du alles, was schlecht zu merken ist, in deiner Commandline-History hast, lohnt das irgendwie nicht.

Des weiteren habe ich keine Ahnung, was man tun muss, damit das auf non-Linux-Systemen läuft.

1 „Gefällt mir“