Fragen nach dem ersten Podcast

Nach unserer ersten Folge (http://audio.antiberg.de/eine-vorstellung/#) sind ein paar Fragen offen geblieben:

  • Der Vorspann Jingle ist ganz doof ausgesteuert. Ich lasse den von Auphonic zufügen. Ausgangsmaterial war das hier: http://f.foxel.org/PodKarstJingleMitText-1612815192.wav Ich vermute Auphonic hat daran rumgemischt (?) Kann ich das irgendwie verbessern?

  • Wir haben ja soo viele Äähms drin. Ist das schlimm? Einfach mit leben? Wir willen definitiv nicht schneller sprechen, als wir denken können und ein entschleunigtes Gespräch ist auch durchaus das Ziel, aber … beim Nachbearbeiten klingt das sooooo peinlich … Ähm …

  • Wir haben sehr viele Kapitelmarken. Und vielleicht ein Zeichen für den Mangel an roten Faden. Oder die Team Vielfalt.

  • wir haben einige Störungen drin gelassen. Zum Beispiel Anrufe von extern. Ich bin mir noch nicht sicher ob ich das gut oder schlecht finde.

  • Die Studio-Link Aufzeichnung bei Detlef (also aus meiner Sicht Remote) hat nicht geklappt. Ich habe einfach nicht dran gedacht, dass man da auch noch den Record Button drücken muss. Ich glaube ein paar Artefakte in meiner Lokalen Aufzeichnung von Detlef kommen daher, dass wir im Grunde Gestotter der Internet-Aufzeichnung drin haben. An seinem Ende sind auch noch gelegentlich dolle Stuhlquietschenr und Handyvibrierer zu hören.

  • Setup war: Telefonheadset an PC mit Studio-Link bei Detlef. Bei mir Rodecaster mit FatHead und Beyerdynamic 7xxirgendwas (Die dunkelblauen) Headset per USB C am Mac mit Ultraschall und Studiolink. Was mich wundert, war, dass ich immer Detlefs Stimme leicht mit in meiner Spur hatte. Das Crossgate hat es am Ende gerichtet, aber ich glaube, ich verstehe da das Audiorouting im Rodecaster noch nicht so ganz. Es sollte ja die Studiolink-Sprache per USB ins Rodecaster reinlaufen und auf meine Ohren kommen und (nur) was von meinem Mikrofon kommt, zurück zum Ultraschall über USB gehen. Kann es sein dass das ein rein akustisches Phänomen ist, dass es einfach von der Ohr Muschel zum Mikrofon über spricht?

  • Der Einspieler, der über ein per Kabel an den Rodecaster angeschlossen iPhone kam, war in der Aufnahme mit Abstand viel zu leise. Den hab ich nachträglich mehr schlecht als recht rein geschnitten.

  • Mit Slacknotes kämpfe ich noch. Aber anstatt zu warten, bis das klappt, habe ich erstmal ohne veröffentlicht.

  • Das Transkript, was Auphonic von Amazon hat machen lassen ist … nicht perfekt. „Ich bin der Herr Wegner, ich bin 9 50 Jahre alt, Mitglied im Arbeitskreis Glut hat Höhle“ … und will in Wuppertal mit dem Papst eine Herrenboutique eröffnen. Gerne würde ich das Transkript nur zur Suche verwenden und dem Nutzer in keienr Form anzeigen. Mal schaun, wie das geht.

  • Ich hätte gerne den „Text“ Zur Episode über dem Player - der mit vielen Kapitelmarken ja sehr Raumgreifend ist (siehe http://audio.antiberg.de/eine-vorstellung/#) Ich hab die Option dazu mal gesehen, finde sie aber nicht wieder.

  • Alles in dllem klappt das deutlich weniger out-of-the-box. Als gedacht. PResets in Auphonic anlegen, Episode Asserts, Podcast-Feeds anlegen. Ein Podcast-Taugliches Template finden, Wordpress auf Deutsch kriegen, Bilder auf 2MB runterrechnen (oder PHP umkonfigurieren) … definitiv nicht auspacken und einschalten. Ich denke ich packe noch einen nginx vor den Apache, um die statischen Dateien etwas schlanker auszuliefern.

  • Nach Ende der Aufzeichnung in Ultraschall fühlte ich mich etwas verloren. Wie exportiere ich da Jatzt Multitrack und was lade ich zu Auphonic hoch und wie kriege ich die Chapters in Podlove? Hab ich dann ja hinbekommen. Aber ist ganz sicher für den typischen nicht-Nerd ein echter Stolperstein.

  • Welcher Podcatcher unterstützt denn al die schönen Metadaten? Ich war echt unterwältigt, was in Overcast auf dem iPhone ankommt.

Das waren die ersten Gedanken, Ideen, Versuche. Ich freue mich über Anregungen, so ihr Zeit und Lust habt, Euch das durchzuschauen udn durchzuhören.

–max

2 Like

Glückwunsch zum schwersten Schritt, dem Anfangen - ich kann nicht zu allem was sagen, aber:

Ist unterschiedlich, aber in erster Linie Gewohnheitssache - ich nehme relativ viele raus, es sei denn sie klingen an der Stelle gut als Füllwort.

Jep, das ist genau das. Wenn man sich da mal eine N-1 Schaltung eingerichtet hat, und selbst auch das eigene gesprochene Wort auf den eigenen Kopfhörern hat… und dann mal spasseshalber am Gain dreht ist es faszinierend wie empfindlich die Dinger in Wahrheit sind.

Wieso mehr schlecht als recht? Da kannst doch die Ursprungsdatei direkt ins Projekt holen, unabhängig davon wie laut die in der Aufnahmesituation war?

Soweit es mich angeht - Premiumcontent! :slight_smile:

Nach dem beenden der Aufnahme und „Prepare for Editing“ (oder sogar schon vorher?) sind die Spuren bereits separat im Ordner „Recording“ des Projektordners.

iPhone Spur schon gelöscht, dann nervig Audiospur aus Youtube gewurschtelt, aber nicht mehr vernünftig in der timeline positioniert bekommen, weil die Originalspur schon gelöscht war. Versucht manuelled Ducking zu machen, weil die Sprecher halt immer an den lautesten Stellen des einspielers waren, die Lust verloren weil - soll ja mal fertig werden. etc.

1 Like

Wir ignorieren so etwas meist, denn es gehört auch in einem Gesprächsfluss mit rein, wenn Du nicht auf Radiocontent machst ist das ja auch normal. Ich zum Beispiel atme auch sehr schwer (dank Plus-Pfunden), aber habe gelernt, damit zu leben. Das ist sowieso das Schlimmste am Anfang: man selbst bemerkt ungeheuer viel, was Hörern kaum oder gar nicht auffällt oder sie nichtmal stört :smiley:

2 Like

Es stimmt, die Einrichtung dauert ein paar Minuten. Aber ab Folge 2 (oder 3) sollte alles sehr viel schneller sein, weil Du schon Presets fertig hast. Wenn Du allerdings noch mehr vorgefertigt haben willst, dann bleibt nur der Weg zu Anbietern wie podigee, podcaster.de und ähnlichen. Und ehrlich gesagt: Du versuchst auch gerade aus dem Stand den Tim Pritlove Standard zu erreichen – Transkripte, Shownotes, Kapitelmarken, Telefoneinspieler… Die meisten lernen die Sachen eins nach dem anderen.

Denn gerade Transkripte sind noch fern davon, einfach von jede:r Beginner:in eingesetzt werden zu können. Dafür sind die deutschen Sprachmodelle der Software zu schlecht und dafür fehlt es an Webstandards und Podcast-App Standards, die das ganze auch wieder sinnvoll ausspielen. Transkription kostet Geld für die manuelle Kontrolle und Zeit für die technische Umsetzung. Definitiv nix, wo man einfach einen Haken setzt und es läuft.

Hast Du Ralfs YouTube Videos zu Ultraschall geschaut? Da wird alles im Detail erklärt. Für die konkrete Frage: Schneide alles, bis Du glücklich bist, in der Timeline. Öffne Export-Fenster. Wähle das Auphonic Multitrack Preset. Render alle Spuren raus, lad sie zu Auphonic, mach sie da fertig.

Ich sehe da eine hervorragende Lernsituation: Rohmaterial erst wegschmeißen, wenn das Ergebnis zur Zufriedenheit da ist. Klar, wenn Du nur den Mixdown aufzeichnest, und Rohmaterial wegschmeißt, dann kannst Du halt auch nicht so einfach ein Problem lösen, das während der Aufnahme passiert ist. Für die Zukunft: Zeichne alle Tracks separat auf. Schneide Multitrack in Ultraschall, nicht nur den Mixdown vom Rodecaster. Und dann Export wie oben beschrieben.

Mit Zeit kommt Fluss – in ein paar Folgen sind die Ähs auch passé. Ich persönlich schneide sehr laute, lange, unnötige Ähms weg, aber kurze im Satzfluss lass ich drin. „Ääähhmm Also ich ähm hab ja neulich auch mal hier ääh den Film mit Tom äh Cruise gesehen, ääääääähm und ich find den ähm nicht so gut.“ Das liest sich schlimm, klingt aber dann gar nicht so dramatisch und eher natürlich. Ich war mal Gast in einem Podcast wo gnadenlos jede Pause und jedes Ähm geschnitten wurde und am Ende klingt das einfach nur kaputt. Da gibt es keinen Platz mehr zum atmen, und wenn Du dann auch noch Fehler machst und Wortanfänge anschneidest, hast Du verloren.

2 Like

Meiner Erfahrung nach können HTML Shownotes von Castro, Overcast, Apple Podcasts und ein paar anderen dargestellt werden. Bilder sehen fast immer kacke aus. Gleiches gilt für Überschriften und andere komplexere Formatierungen. Textlinks, Listen und ähnliches funktioniert aber relativ stabil. Weniger ist hier also definitiv mehr.

2 Like

… zu den ähhhmmms!

Das sendet sich weg :wink:

Das legt sich nicht mit ‚schneller sprechen‘

Die ‚ähms‘ nennt man auch ‚Denkgeräusche‘, die manche produzieren, weil sie die Stille nicht aushalten oder unterschwellig denken, die anderen halten sie für blöd, weil sie nicht am Stück sprechen können. Das passiert aber eigentlich nur in Situationen mit Aspekten von Öffentlichkeit und/oder Bedeutsamkeit.

Die ‚ähms‘ passieren eher, wenn man abliefert, also einen vorgedachten Text reproduziert und beim Sprechen merkt, dass da gerade der Nachschub fehlt.
Wenn Du Dich wirklich in einem Dialog befindest, mit Zuhören, Nachdenken, laut Denken, sich austauschen, und nicht abgelenkt bist, weil Du parallel an die Technik oder das Konzept denken musst, dann wird Dir das viel weniger passieren.
Versuche, die Pause zu genießen.
Hab Spaß, das legt sich.
CG:)

3 Like

Inzwischen bin ich bei Folge 7 und es ist eine spannende Erfahrung.

Shownotes anzeigen, Übersicht der Mitwirkenden, Übersicht der Shows, etc ist frickeliger als gedacht und mein Interesse an Web Design ist der Herausforderung nicht gewachsen.

Langsam finde ich raus welche Podlove Asserts ich wo will und wo ich zum Beispiel am besten das Episoden Bild ein Pflege - Wordpress, Podlove Publisher, Auphonic? In welches der vielen Felder ich aber zum Beispiel am besten den Titel rein schreibe finde ich immer noch sehr verwirrend.

Der Workflow zwischen Podlove und Auphonic Multitrack scheint mir ein bisschen magisch.

Auphonic Multitrack Export Preset in Ultraschall hab ich immer noch nicht gefunden geht aber auch so. Ist aber ein lästiger Workflow jede Spur und die Chaptermarks einzeln an Auphonic zu schicken. Tüpppfehler in KapitelMarken sind nach Auphonic scheinbar nicht mehr manuell un der Web-GUI zu korregieren. (Also die für den Player und im RSS Feed.)

Einfügen von ZB Vorspann in Ultrashall bringt mich immer noch zur Verzweifelung.

Für gebaute Beiträge, wie https://antiberg.fm/karst003/ nutze ich Hindenburg Journalist Pro. Da habe ich aber das Gefühl, dass viele Funktionen nur über die Tastatur zu finden sind. Vehlender Multi Track Export bringt mich auch zur Verzweiflung. Und in Hindenburg geraten mir die Kapitelmarken schnell mal durcheinander. Doof.

Wenn es linear bleibt, fühle ich mich in Ultraschall wohler, auch wenn man merkt, dass die Benutzeroberfläche halt doch irgendwie draufgetackert ist. Trotzdem tolles Projekt!

HTTPS scheint irgendwie nötig für Google Podcasts und ein nginx, vor dem PHP um statische asserts auszuliefern scheint mir auch best practice. An der Durchsuchbarkeit von Shownotes und Transkripten bin ich noch dran, find ich aber deutlich zu frickelig.

Im Großen und Ganzen klappt es aber sehr brauchbar. Ich muss über den Daumen für 1 Stunde Sendezeit 3 Stunden Post Production aufwenden. Das ist mir ein bisschen zu viel, geht aber in die richtige Richtung.

Nach all dem technischen Gebastel kann ich mich jetzt mehr auf das inhaltliche konzentrieren. Wie macht man eigentlich gute Podcasts? Vielleicht auch gutes Radio?
Wie entsteht ein gutes Interview, wie ein Feature, wie eine Reportage? Und was kann es Medium Podcast, was Radio nicht kann und will? Was geht mit Sounddesign?
Könnte es neben Hypertext auch HyperAudio geben? Wie Verweise ich in meinem Podcast auf einen anderen Podcast? Oder einen anderen Tonschnipsel?

Das Sendegate scheint sich da mehr auf konkrete technische Fragen im Bereich Audiorecording zu konzentrieren. Gibt es eine community für die inhaltlichen Fragen?

Mit gut 120 Downloads pro Episode bin ich schon jetzt in Reichweite dessen, was ich mir für das Jahresende als Ziel gesetzt habe (200 Hörer), das macht Spaß.

Die Hörer scheinen Veröffentlichung zu einem bestimmten Termin (jeden zweiten Freitag um 12:00 Uhr oder sowas) zu erwarten. Das trifft mich recht unerwartet, ich hatte immer gedacht, RSS und Co wären dafür da, einen genau aus diesem Korsett zu befreien.

Auch gibt es starken Druck nach „snackability“: kurze Folgen, keine Sprechpausen, Zusammenfassungen, intensiver Schnitt.

Ich bin ganz froh, von Anfang an mit ordentlichen Headsets, Rodecaster, Multitrack und so weiter auf ein High-End Setup gegangen zu sein. „Für das Hobby ist einem nichts zu teuer“ meinte ein Interview Partner. Mir macht es so jedenfalls deutlich mehr Spaß, als mit einem wackeligen Zoom auf dem Tisch und dem verkrampften Versuch von Mikrofon Disziplin.

Remote Interviews sind ein Drama. Zoom und Co scheinen meine Interviewpartner dazu erzogen zu haben, dass alles ja irgendwie geht. Gute Headsets sind erstaunlich wenig verbreitet. Viele erwarten dass sie einfach in ihr Laptop Mikrofon brüllen und dass das schon klappen sollte. Die Fähigkeit neben Studiolink auch noch einen separaten Video-Chat offen zu haben, überforderte bisher alle meine Gesprächspartner. Vielleicht probiere ich mal die Studiolink Mobile-Apps. Oder ich gewöhne mich einfach an das akustische „Unser Korrespondent aus Nairobi“ Feeling.

3 Like

Dafür ist das Sendegate eigentlich auch die richtige Anlaufstelle, die technischen Fragen überlagern diese für mich aber durchaus auch sehr spannenden Diskussionen deutlich. Die Kategorie „Planen“ wäre dafür der richtige Anlaufort. Und vielleicht noch mal eine Erinnerung an uns alle: Der Podcast ist nicht die Technik – er ist Inhalt, der technisch vermittelt wird :slight_smile:

8 Like