Ich habe mir in Final Cut ein Template erstellt und dann exportiere ich einfach zur Röhre (Youtube) und den Link werfe ich dann überall rein. Hat den Vorteil, dass es überall abgespielt wird und ich das auch ein bisschen individuell gestalten kann. Außerdem kann ich zentral sehen wie oft es gespielt wurde, auch wenn ich das noch nicht gemacht habe, aber ich könnte.
Nachteil sind die riesigen Datenberge, die auf der lokalen SSD beim Rendern anfallen.
… es macht zwar Spaß diese Teaser zu machen, aber so ganz weiß ich noch nicht ob es den Aufwand wert ist.
Im Nachbarthread 1 habe ich es schon erwähnt, daher hier nur kurz:
Ich verwende da einen Hack, der ein Podcastlogo, ein Episodenbild und einen WAV-Schnipsel nimmt und daraus ein Video rendert. Mehr Details mit Link auf Beispiele unter
Hier mal ein Test von mir danke an @funkenstrahlen für die Testmöglichkeit.
Vom Aufwand her fand ich es sehr gering und einfach.
Einzig die Clip Auswahl könnte feiner sein.
Problem ist halt, dass man nur sehr kurze Snippets zu Twitter exportieren kann.
D.h. man müsste wahrscheinlich ein eigenes Audiofile für so ein Preview erstellen und damit dann eine eigenständige Production machen (mit Cover Image).
Eine andere Möglichkeit wäre ein Kapitel zu definieren, welches man als Preview exportiert - ist aber wahrscheinlich nicht sehr sinnvoll und auch kompliziert.
Ich schicke aktuell einen Soundschnipsel durch Auphonic (habe dafür ein extra Preset) und klebe dann per Clammr ein Bild, Link und Text dran und veröffentliche es auf Twitter.
Das ist extrem unaufwendig, macht einen aber halt von einem “dubiosen” Drittanbieter abhängig, das macht mich nicht ganz glücklich.
Schöner wäre natürlich, wenn man das mit “diesen Schnipsel hätte ich gerne” (auch außerhalb des regulären Projekts, also nicht unbedingt ein Teil des Podcasts, sondern ggf. ein extra aufgenommener Teaser) und der Auswahl eines Bildes+Links (entweder immer das gleiche -> Podcast-Logo + Homepage oder extra ausgewählt -> Episodenbild + Episodenseite) direkt in Auphonic machen könnte.
“Hübsch” ist gut, aber aus meiner Sicht sind die Ziele erst mal andere:
die Leute durch Zappeln animieren, das stumm spielende Video zu unmuten
ihnen dann etwas so interessantes auf die Ohren geben, dass sie weiter hören wollen
einen einfachen Weg anbieten, zur entsprechenden Episode zu gelangen
Um 1. zu erreichen macht das Tool schon mal das richtige: es zappelt.
Um 2. zu erreichen ist der Podcaster gefragt, einen geeigneten Clip auszuwählen oder zu produzieren.
Um 3. zu erreichen helfen Link-Shortener und eine entsprechende Verlinkung im Video-Post.
Außerdem, ganz unhübsch muss die Sache auch nicht sein. Meine ersten Experimente gefallen mir ganz gut.
Installation auf dem Mac
Ich habe noch nie einen so komplizierten Installationsprozess absolviert, aber mit der Anleitung hat es problemlos funktioniert.
Node.js installieren
Ich habe die Current-Version genommen.
Homebrew installieren
Wie auf der Seite beschrieben, habe ich dazu einfach folgendes in ein Terminal-Fenster kopiert: /usr/bin/ruby -e "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/master/install)"
Terminal öffnen bzw. geöffnet lassen und Rest gemäß Anleitung installieren
Ausprobieren
Danach npm start im Terminal eingeben oder die Datei audiogram/bin/server per Doppelklick starten. Im Browser http://localhost:8888 aufrufen und anfangen zu spielen.
Individualisieren
Als nächstes möchte man sein eigenes Theme basteln. Dazu die Datei audiogram/settings/themes.json mit einem Texteditor öffnen, von den existierenden Beispielen lernen und ein eigenes Theme erstellen. Näheres bei Github.
Pimpen
Ich habe schnell gemerkt, dass mir die Möglichkeiten des Tools zu eingeschränkt sind. Ich konnte z.B. den Text nicht so positionieren wie ich es wollte. Ich habe mich deshalb entschieden, das Video mit iMovie weiter zu bearbeiten. Dann habe ich die Möglichkeit entdeckt, in iMovie mit Blue-/Green-Screen zu arbeiten. Dabei kann man ein Video über ein anderes legen und alles, was im “oberen” Video blau bzw. grün ist, wird transparent. Ich habe dann für Audiogram ein Green Screen Theme gebaut: "Green Screen 720p": { "width": 1280, "height": 720, "samplesPerFrame": 64, "pattern": "roundBars", "waveTop": 355, "waveBottom": 600, "foregroundColor": "#cc3b20", "backgroundColor": "#00ff12" }
Das Ergebnis sieht dann so aus:
So bekommt man dann also eine zappelnde Waveform in iMovie und kann im Hintergrund mehr machen als nur ein starres Foto mit fixiertem Text zu zeigen. Damit kommt man den Möglichkeiten von After Effects vermutlich schon recht nahe, und ich denke mit ein bisschen Übung bekommt man auch relativ schnell gute Ergebnisse.
Die Installation fand ich nicht weiter wild, aber die Idee mit dem Green Screen ist trotzdem super! Jetzt noch die Beschränkung auf 30 Sekunden aufheben und alles ist Bombe
Irgendwie bekomme ich nur einen Fehler ausgegeben. Homebrew hab ich schon drauf gehabt, habe Node.JS über Homebrew eingespielt und, wenn ich dann npm start eingebe passiert das: