Fragen nach dem ersten Podcast

Nach unserer ersten Folge (http://audio.antiberg.de/eine-vorstellung/#) sind ein paar Fragen offen geblieben:

  • Der Vorspann Jingle ist ganz doof ausgesteuert. Ich lasse den von Auphonic zufügen. Ausgangsmaterial war das hier: http://f.foxel.org/PodKarstJingleMitText-1612815192.wav Ich vermute Auphonic hat daran rumgemischt (?) Kann ich das irgendwie verbessern?

  • Wir haben ja soo viele Äähms drin. Ist das schlimm? Einfach mit leben? Wir willen definitiv nicht schneller sprechen, als wir denken können und ein entschleunigtes Gespräch ist auch durchaus das Ziel, aber … beim Nachbearbeiten klingt das sooooo peinlich … Ähm …

  • Wir haben sehr viele Kapitelmarken. Und vielleicht ein Zeichen für den Mangel an roten Faden. Oder die Team Vielfalt.

  • wir haben einige Störungen drin gelassen. Zum Beispiel Anrufe von extern. Ich bin mir noch nicht sicher ob ich das gut oder schlecht finde.

  • Die Studio-Link Aufzeichnung bei Detlef (also aus meiner Sicht Remote) hat nicht geklappt. Ich habe einfach nicht dran gedacht, dass man da auch noch den Record Button drücken muss. Ich glaube ein paar Artefakte in meiner Lokalen Aufzeichnung von Detlef kommen daher, dass wir im Grunde Gestotter der Internet-Aufzeichnung drin haben. An seinem Ende sind auch noch gelegentlich dolle Stuhlquietschenr und Handyvibrierer zu hören.

  • Setup war: Telefonheadset an PC mit Studio-Link bei Detlef. Bei mir Rodecaster mit FatHead und Beyerdynamic 7xxirgendwas (Die dunkelblauen) Headset per USB C am Mac mit Ultraschall und Studiolink. Was mich wundert, war, dass ich immer Detlefs Stimme leicht mit in meiner Spur hatte. Das Crossgate hat es am Ende gerichtet, aber ich glaube, ich verstehe da das Audiorouting im Rodecaster noch nicht so ganz. Es sollte ja die Studiolink-Sprache per USB ins Rodecaster reinlaufen und auf meine Ohren kommen und (nur) was von meinem Mikrofon kommt, zurück zum Ultraschall über USB gehen. Kann es sein dass das ein rein akustisches Phänomen ist, dass es einfach von der Ohr Muschel zum Mikrofon über spricht?

  • Der Einspieler, der über ein per Kabel an den Rodecaster angeschlossen iPhone kam, war in der Aufnahme mit Abstand viel zu leise. Den hab ich nachträglich mehr schlecht als recht rein geschnitten.

  • Mit Slacknotes kämpfe ich noch. Aber anstatt zu warten, bis das klappt, habe ich erstmal ohne veröffentlicht.

  • Das Transkript, was Auphonic von Amazon hat machen lassen ist … nicht perfekt. „Ich bin der Herr Wegner, ich bin 9 50 Jahre alt, Mitglied im Arbeitskreis Glut hat Höhle“ … und will in Wuppertal mit dem Papst eine Herrenboutique eröffnen. Gerne würde ich das Transkript nur zur Suche verwenden und dem Nutzer in keienr Form anzeigen. Mal schaun, wie das geht.

  • Ich hätte gerne den „Text“ Zur Episode über dem Player - der mit vielen Kapitelmarken ja sehr Raumgreifend ist (siehe http://audio.antiberg.de/eine-vorstellung/#) Ich hab die Option dazu mal gesehen, finde sie aber nicht wieder.

  • Alles in dllem klappt das deutlich weniger out-of-the-box. Als gedacht. PResets in Auphonic anlegen, Episode Asserts, Podcast-Feeds anlegen. Ein Podcast-Taugliches Template finden, Wordpress auf Deutsch kriegen, Bilder auf 2MB runterrechnen (oder PHP umkonfigurieren) … definitiv nicht auspacken und einschalten. Ich denke ich packe noch einen nginx vor den Apache, um die statischen Dateien etwas schlanker auszuliefern.

  • Nach Ende der Aufzeichnung in Ultraschall fühlte ich mich etwas verloren. Wie exportiere ich da Jatzt Multitrack und was lade ich zu Auphonic hoch und wie kriege ich die Chapters in Podlove? Hab ich dann ja hinbekommen. Aber ist ganz sicher für den typischen nicht-Nerd ein echter Stolperstein.

  • Welcher Podcatcher unterstützt denn al die schönen Metadaten? Ich war echt unterwältigt, was in Overcast auf dem iPhone ankommt.

Das waren die ersten Gedanken, Ideen, Versuche. Ich freue mich über Anregungen, so ihr Zeit und Lust habt, Euch das durchzuschauen udn durchzuhören.

–max

1 Like

Glückwunsch zum schwersten Schritt, dem Anfangen - ich kann nicht zu allem was sagen, aber:

Ist unterschiedlich, aber in erster Linie Gewohnheitssache - ich nehme relativ viele raus, es sei denn sie klingen an der Stelle gut als Füllwort.

Jep, das ist genau das. Wenn man sich da mal eine N-1 Schaltung eingerichtet hat, und selbst auch das eigene gesprochene Wort auf den eigenen Kopfhörern hat… und dann mal spasseshalber am Gain dreht ist es faszinierend wie empfindlich die Dinger in Wahrheit sind.

Wieso mehr schlecht als recht? Da kannst doch die Ursprungsdatei direkt ins Projekt holen, unabhängig davon wie laut die in der Aufnahmesituation war?

Soweit es mich angeht - Premiumcontent! :slight_smile:

Nach dem beenden der Aufnahme und „Prepare for Editing“ (oder sogar schon vorher?) sind die Spuren bereits separat im Ordner „Recording“ des Projektordners.

iPhone Spur schon gelöscht, dann nervig Audiospur aus Youtube gewurschtelt, aber nicht mehr vernünftig in der timeline positioniert bekommen, weil die Originalspur schon gelöscht war. Versucht manuelled Ducking zu machen, weil die Sprecher halt immer an den lautesten Stellen des einspielers waren, die Lust verloren weil - soll ja mal fertig werden. etc.

1 Like

Wir ignorieren so etwas meist, denn es gehört auch in einem Gesprächsfluss mit rein, wenn Du nicht auf Radiocontent machst ist das ja auch normal. Ich zum Beispiel atme auch sehr schwer (dank Plus-Pfunden), aber habe gelernt, damit zu leben. Das ist sowieso das Schlimmste am Anfang: man selbst bemerkt ungeheuer viel, was Hörern kaum oder gar nicht auffällt oder sie nichtmal stört :smiley:

2 Like

Es stimmt, die Einrichtung dauert ein paar Minuten. Aber ab Folge 2 (oder 3) sollte alles sehr viel schneller sein, weil Du schon Presets fertig hast. Wenn Du allerdings noch mehr vorgefertigt haben willst, dann bleibt nur der Weg zu Anbietern wie podigee, podcaster.de und ähnlichen. Und ehrlich gesagt: Du versuchst auch gerade aus dem Stand den Tim Pritlove Standard zu erreichen – Transkripte, Shownotes, Kapitelmarken, Telefoneinspieler… Die meisten lernen die Sachen eins nach dem anderen.

Denn gerade Transkripte sind noch fern davon, einfach von jede:r Beginner:in eingesetzt werden zu können. Dafür sind die deutschen Sprachmodelle der Software zu schlecht und dafür fehlt es an Webstandards und Podcast-App Standards, die das ganze auch wieder sinnvoll ausspielen. Transkription kostet Geld für die manuelle Kontrolle und Zeit für die technische Umsetzung. Definitiv nix, wo man einfach einen Haken setzt und es läuft.

Hast Du Ralfs YouTube Videos zu Ultraschall geschaut? Da wird alles im Detail erklärt. Für die konkrete Frage: Schneide alles, bis Du glücklich bist, in der Timeline. Öffne Export-Fenster. Wähle das Auphonic Multitrack Preset. Render alle Spuren raus, lad sie zu Auphonic, mach sie da fertig.

Ich sehe da eine hervorragende Lernsituation: Rohmaterial erst wegschmeißen, wenn das Ergebnis zur Zufriedenheit da ist. Klar, wenn Du nur den Mixdown aufzeichnest, und Rohmaterial wegschmeißt, dann kannst Du halt auch nicht so einfach ein Problem lösen, das während der Aufnahme passiert ist. Für die Zukunft: Zeichne alle Tracks separat auf. Schneide Multitrack in Ultraschall, nicht nur den Mixdown vom Rodecaster. Und dann Export wie oben beschrieben.

Mit Zeit kommt Fluss – in ein paar Folgen sind die Ähs auch passé. Ich persönlich schneide sehr laute, lange, unnötige Ähms weg, aber kurze im Satzfluss lass ich drin. „Ääähhmm Also ich ähm hab ja neulich auch mal hier ääh den Film mit Tom äh Cruise gesehen, ääääääähm und ich find den ähm nicht so gut.“ Das liest sich schlimm, klingt aber dann gar nicht so dramatisch und eher natürlich. Ich war mal Gast in einem Podcast wo gnadenlos jede Pause und jedes Ähm geschnitten wurde und am Ende klingt das einfach nur kaputt. Da gibt es keinen Platz mehr zum atmen, und wenn Du dann auch noch Fehler machst und Wortanfänge anschneidest, hast Du verloren.

1 Like

Meiner Erfahrung nach können HTML Shownotes von Castro, Overcast, Apple Podcasts und ein paar anderen dargestellt werden. Bilder sehen fast immer kacke aus. Gleiches gilt für Überschriften und andere komplexere Formatierungen. Textlinks, Listen und ähnliches funktioniert aber relativ stabil. Weniger ist hier also definitiv mehr.

2 Like

… zu den ähhhmmms!

Das sendet sich weg :wink:

Das legt sich nicht mit ‚schneller sprechen‘

Die ‚ähms‘ nennt man auch ‚Denkgeräusche‘, die manche produzieren, weil sie die Stille nicht aushalten oder unterschwellig denken, die anderen halten sie für blöd, weil sie nicht am Stück sprechen können. Das passiert aber eigentlich nur in Situationen mit Aspekten von Öffentlichkeit und/oder Bedeutsamkeit.

Die ‚ähms‘ passieren eher, wenn man abliefert, also einen vorgedachten Text reproduziert und beim Sprechen merkt, dass da gerade der Nachschub fehlt.
Wenn Du Dich wirklich in einem Dialog befindest, mit Zuhören, Nachdenken, laut Denken, sich austauschen, und nicht abgelenkt bist, weil Du parallel an die Technik oder das Konzept denken musst, dann wird Dir das viel weniger passieren.
Versuche, die Pause zu genießen.
Hab Spaß, das legt sich.
CG:)

3 Like