Direktes Mastering möglich oder besser RAW und dann im Anschluss mastern?

Hallo,
ich bin neu hier und versuche gerade einen Podcast zu starten. Habe auch schon 3 Folgen aufgenommen (allerdings nicht veröffentlicht) und mich in diesem Zusammenhang mit der Nachbearbeitung bei Audacity beschäftigt.
Jetzt habe ich mir vor Kurzem den Rodecaster mal angeschaut und fand die Idee bzw. die Möglichkeit ganz spannend, einen Podcast einfach direkt veröffentlichbar und fertig aufzuzeichnen. Dazu werden ja dort einige Filter und so weiter im Vorfeld gesetzt.
Ich bin allerdings nicht so der Freund von festen, großen Geräten, weshalb ich auf Ultraschall aufmerksam geworden bin. Theoretisch müssten in einer Softwarelösung ja all die Dinge auch funktionieren, die in einem Gerät mit Firmware-Softwarelösungen gehen.

Daher meine Frage, ist es möglich solche Einstellungen für das Mastering der Aufnahme vorab in Ultraschall vorzunehmen? Wenn ja, in welchem Tutorial kann man was dazu erfahren.

Hintergrund meiner Frage ist die Vorgabe im Einsteigertutorial (?), dass man den Eingangspegel beim Interface (bei mir ein H6) relativ hoch hält, damit man einen guten Rauschabstand zum Mastern erhält. Hat natürlich zur Folge, dass Hintergrundgeräusche auf jedenfall zu hören sind, sofern man sich nicht im isolierten Tonstudio befindet. Ich würde halt gern den zweiten Schritt des Masterings, wenn möglich umgehen.

Vielen Dank.

Cody

2 „Gefällt mir“

Hallo Cody,

Mastering kommt immer zum Schluss. Da werden die Spuren (wenn Du mehrere hast) auf einen Nenner gebracht, ggf. ein letzte Mal ein Kompressor angewendet.

Was man aber vorher machen kann, ich schätze darauf zielt deine Frage, ist das aufgenommene Signal schon soweit zu bearbeiten, dass eine Nachbearbeitung entfallen könnte. Zum Beispiel einen Equalizer direkt bei der Aufnahme mitlaufen zu lassen. Wenn ich mich richtig erinnere, macht das das Rode Pult mit Presets, aber so ganz tief bin ich da nicht drin.

Der Vorteil, es erst nach der Aufnahme zu machen ist, dass Du dann die ganze Kontrolle hast. Du kannst dann zum Beispiel genauso viel Kompressor oder EQ auf die Aufnahme machen, wie Du willst. Oder Du jagst alles durch Auphonic … wie Du das möchtest.

Ich bin gerade dabei meine Skills noch mehr zu erweitern und versuche so viel wie möglich schon bei der Aufnahme zu regeln. Dazu gehört gerade der Kompressor und der EQ dazu, was mir in der Nachbearbeitung dann viel Zeit erspart. Im Grunde mache ich im Moment in der Nachbearbeitung nur noch mal eine Rauschminderung und dann ziehe ich die Loundness auf einen Wert.

Hallo, willkommen in unserem Forum und: sehr schöne Frage, ich versuche das mal hilfreich zu beantworten.

Vorbemerkung: wenn wir von “Mastering” sprechen bei Podcasts (andere Audioproduktiuonen haben ganz andere Spielregeln, etwa Musik), dann im Kern von drei Zielen:

  1. Die Folge soll so “laut” sein, dass Mensch sie auch in der vollen U-Bahn, im Auto etc. gut hören kann. Was hier immer als Ziel genannt wird sind sie sogenannten “-16 LUFS” - ein psychoakustischer Wert, der genauer als dB beschreibt wie “laut” Audio empfunden wird.
  2. Fehler die bei der Aufnahme passiert sind ausbügeln: etwa Rauschen der Mikros, Srörgeräusche wie Lüfter des Rechners, Kühlschrank etc, eventuell Übersprechen mehrerer Mikros zueinander (produziert Hall)
  3. Klangformung: um “professioneller” zu klingen werden etwa etwas die Bassfrequenzen angehoben, meist mit einem Equalizer (EQ)

Grundsätzlich würd eich behaupten: wenn Mensch nicht viel Geld in die Hand nimmt, und/oder in einem Radiostudio sitzt (wo ja live ein guter Klang entstehen muss) ist es schwer bis gar nicht möglich für uns (begeisterten) Amateure, alle drei Ziele schon während der Produktion zu erreichen. Bei 1 droht immer Clipping oder eine zu starke Kompression des Signals, Entrausch-Filter bei 2 funktionieren nur dann wirklich gut wenn sie etwas Zeit zum Rechnen haben und ein “Referenzrauschen” als Grundlage, Punkt 3 geht noch am einfachsten.

Was sind also die Optionen:

  1. Rødecaster - Mastering direkt im Aufnahmegerät.
    Røde hat hier viel versprochen, aber wie ich in meinem Longread

Glaube nachweisen zu können, klingt es nicht besonders gut, wenn man die angebotenen Bordmittel zur Klangformung einschaltet. Vor allem ist Punkt 1 schlicht - derzeit - nicht möglich, das Røde ist schlicht zu leise bzw. man kann den Output nicht am Limiter vorbei laut genug erzeugen (ohne brutales Übersteuern).

  1. Post-Produktion in Ultraschall
    Wenn Deine Aufnahmesituation gut ist, also Raum, Mikros, Aussteuerung und Sprechverhalten, ist das Mastering in Ultraschall nicht aufwändiger als genau ein Knopfdruck: der Dynamics 2 Effekt regelt eigentlich alles automatisch. Nur wenn Spuren unterschiedlich laut aufgenommen wurden, oder während einer Aufnahme sich die Lautheit stark geändert hat (Mikro vom Mund weggedreht und keiner hat es gemerkt) muss Mensch vielleicht nachsteuern. Hier ist umfangreich beschrieben, wie das dann funktioniert:
  1. Auphonic
    Seit Jahren unbestrittener Gold-Standard zum Mastering von Podcasts ist der Dienst Auphonic. Der kostet zwar (wenig) Geld, dafür kann Mensch sicher sein dass zum einen das Audio im Sinne von 1 genau den richtigen Punch bekommt, zudem hat es die m.E. besten Verfahren um problematische Aufnahmen zu retten. Selbst verhallte Aufnahmesituationen bekommt Auphonic noch gut in den Griff. Zudem fügt es sich gut in unseren Workflow ein, da es etwa die Ergenbnisse gleich auf einen FTP-Server legen kann.

Noch einmal generell: qualitativ gutes Mastering lebt davon, dass es nach der Aufnahme gemacht wird. Warum? Weil dann die Filter und Algorithmen “in die Zukunft hören” können. In einer Live-Situation weiß so ein Filter nie, was als nächstes passieren wird, und wird dann etwa von einem lauten Husten überrascht. Ist die Aufnahme schon erfolgt, so sieht der Filter hingegen “ah, gleich kommt das laute Husten, das regeln wir dann mal gleich leiser”. Sowohl Ultraschall Dynamics 2 als auch Auphonic profitieren genau davon.

Fazit: Wenn Geld nicht so die Rolle sielt und mensch wirklich keine Mühe haben möchte nehm Auphonic. Wenn ein bisschen Bereitschaft da ist sich etwas in die Hintergründe einzuarbeiten und man gezielter eingreifen möchte: probier den Dynamics 2 in Ultraschall.

Auf beiden Wegen kommt man bald mit sehr wenigen Klicks zu sehr guten Ergebnissen, die allem überlegen sind was “live” produziert werden kann.

5 „Gefällt mir“

Vielen Dank für die ausführliche Antwort.

Da hab ich dann doch noch ein paar konkrete Rückfragen.

Soll ich dann von vornherein immer so um die -18 bzw. -16 aufnehmen, auch mit der “Gefahr” dass ich dann mehr Nebengeräusche mitnehme?

Ich habe nämlich das Problem, dass mein Setting wechselnd und nie wirklich optimal sein wird. Deshalb möchte ich für mich einen Weg finden, wie die Nachbereitung möglichst minimal sein wird.

Ich beschreib mal kurz meine bisherigen 3 Aufnahmen, die auch gleich 3 mögliche Aufnahmeszenarien in der Zukunft darstellen:

  1. Aufnahme: Dialoggespräch im Büro meiner Frau. Ruhiger Konferenzraum mit lärmschluckenden Decken aber auch glatten hohen Wänden. Ein gewisser räumlicher Hall ist hier vorhanden, aber es ist auch gleichzeitig die einzige Aufnahmesituation, bei der ich volle Kontrolle hätte.

  2. Aufnahme: Dialoggespräch bei einem Gast zu Hause im Keller. War ok, bis seine Kids wach wurden. Da hört man in dem Haus jeden dumpfen Schritt und jedes Kindergeschrei. Außerdem halt zusätzlich noch eine Couchsituation, so dass man die Bewegung auf den Polstern wahrnimmt.

  3. Aufnahme: Via Skype. Sie hatte ihren Rechner in der Küche und leider kein Headset. Extrem hallig und keine Tiefe.

An Situation 2 und 3 werde ich am Setting (außer vielleicht einem Headset zu verlangen) meist nix drehen können. Nicht jeder kommt zu mir und zu manchen ist es einfach zu weit. Bei Skype bin ich dann halt immer auf deren Technik angewiesen.

Klar geht es um Inhalte. Ich möchte halt nur nicht immer grottige Audios haben und Stunden mit der “Rettung” verbringen, ohne dass es am Ende was wird.

Bei den aktuellen 3 Aufnahmen sind die Probleme also wie folgt:

  1. Glasaufsetzer auf Tisch. Lesson learne fürs nächste mal, aber muss ich sowas selbst bearbeiten oder kann sowas auch Auphonic?
  2. Die Kindergeräusche und das Couchgeknister. Auch hier die Frage: selbst bearbeiten oder nur Auphonic die Rohversion schicken?
  3. Hall und generell schlechte Steuerung durch den Skypecall. Selbe Frage Auphonic oder selbst?

Unter allem natürlich die zusammenfassende Frage, wie kann man in diesen Situationen, wo man ja nicht immer die Kontrolle über die Aufnahmesituation hat, ein möglichst gutes Ausgangsmaterial produzieren?

Ich habe einen H6 mit den 2 Standard Mics, ein Ansteck-XLR und ein Tripod-Kondensator-XLR. Zusätzlich hab ich ein Macbookpro mit Reaper/Ultraschall drauf.

Vielen Dank nochmal.
Cody

Du kannst nicht beides haben: wechselnde Umgebungen und ein Recording, das quasi in Masterqualität herausfällt.

Wie Ralf schon gesagt hat, ist es nicht ohne weiteres möglich, quasi alles bei der Aufnahme korrekt zu haben und dann nichts in Post machen zu müssen. Besser ist da ein abgespeicherter Workflow mit Dynamics und EQ, dann dauert das Mastering weniger lange als eine fein justierte Aufnahme in der Vorbereitung gedauert hätte.

Zu Deinen konkreten Fragen: Es klingt so, als hättest Du das Zoom H6 einfach zwischen Euch auf den Tisch gestellt. Damit nimmst Du zwangsläufig die Umgebung mit auf, und auch beim Editing kannst Du kaum etwas retten. Gläser abstellen und sowas ist dann auch unweigerlich auf der Aufnahme, es sei denn es ist gerade in der Pause wenn niemand spricht. Generell ist das XY-Stereomikro vom H6 nicht für so Gesprächssituationen geeignet, weil es viel zu viel Raum aufzeichnet – denn dafür wurde es gebaut. Das Mikrofon fühlt sich wohl vor einem Streicherquartett oder in einem Proberaum. Bei Sprachaufnahmen willst Du immer das Mikrofon so nah wie möglich an der sprechenden Person und pro Person ein Mikrofon haben – das gilt für Radio, Podcast, Film und Fernsehen.

Was Du willst, sind Headsets, eins pro Gast, in günstig (HMC660) oder teuer (DT297) oder Nackenbügelmikros (mit denen ich mich nicht auskenne). Dadurch, dass Du direkt am Mund aufzeichnest, kann der Gain geringer ausfallen, weniger Nebengeräusche kommen auf die Aufnahme, Mikrofondisziplin ist kein Problem und unterschiedliche Sprachlautstärken können so ausgeglichen werden.

Bei Skype: Skype selbst aufzeichnen taugt nichts. Besser sind da Double-Ender, also Deine Partnerin auf der anderen Seite zeichnet sich selbst gesondert auf, z.B. mit einem Smartphone und Recording-App, und schickt Dir dann die Aufnahme, Du schneidest das zusammen. Oder Du nimmst gleich Studio-Link, damit geht das noch einfacher. Für alles findest Du reichlich Beschreibungen hier im Sendegate.

Auphonic ist super, auch hier gilt: Garbage In = Garbage Out. Wenn alle Gäste auf der gleichen Spur liegen, Gläserabstellen auf der Spur drauf ist und Hall, dann kann auch der beste Algorithmus nicht viel retten. Wenn Du Auphonic aber getrennte Spuren pro Sprecher:in gibst, dann kann da viel gemacht werden.

Hallo Joram,
danke für Deine Antwort.
Bezüglich des Settings. Ich habe eigentlich bisher das H6 beim Gast stehen gehabt und mich mit dem Ansteckmikrofon aufgezeichnet. Alternativ hab ich halt noch eine Konsensator-Mikrofon (Niere) auf der Angel bzw. auf dem Tripod.
Headset hatte ich bisher nicht so auf dem Schirm. Will jetzt auch nicht unbedingt gleich wieder Geld ausgeben, wenn’s nicht unbedingt notwendig ist. Hm, mal schauen.
Bei diesen Headsets schockt mich auch ein die XLR und Klinke-Thematik ab. Klar, es funktioniert mit dem H6, aber auch da brauch ich dann nochmal zusätzlich nen Klinken-Splitter. Und wie gesagt, möchte auch nicht gleich nochmal 2 Headsets und noch ein weiteres Gerät anschaffen müssen.
Wie sieht das denn mit nem USB-Headset aus? a) hätte ich das schon und b) könnte man das ja dann auch an Skypegäste zum Einspöpseln senden.

Dann teste ich mal auf jeden Fall Auphonic.
Vielen Dank,
Cody

USB Headsets sind nur solo sinnvoll. Also wenn Du alleine podcastest, kann das eine Lösung sein (sofern das Mikrofon von dem USB-Headset was taugt – tun sie nämlich oft nicht). Du kannst aber nicht stabil und ohne rumgenerve mehrere USB-Headsets parallel betreiben, schon gar nicht vom gleichen Hersteller. USB-Mikrofone sind leider eine Verlockung für Anfänger:innen, die schnell zu Enttäuschung führt, wenn auf einmal klar wird, wie eng begrenzt der Einsatzbereich ist. Keine Multikanalaufnahmen, oft wenig Regelung und im schlimmsten Fall sogar Probleme mit den Treibern.

An Deiner Stelle würde ich dem Gast das Mikrofon anstecken und selbst in das Handmikrofon sprechen. Dadurch muss der Gast keine Mikrofondisziplin haben (das Mikro steckt ja fest an ihm) und Du hast mit der Zeit die Erfahrung, wie Du in Dein Mikrofon sprechen musst. Dabei ganz wichtig: Kopfhörer auf und live monitoring machen. Dann hörst Du gleich, ob Du nah genug dran bist, ob der Klang stimmt und wie es mit Hintergrundgeräuschen aussieht.

Dann kannst Du auch sehr vorsichtig pegeln und lieber etwas Headroom lassen – Ultraschall Dynamics 2 holt dann alles hoch auf das richtige Level. Dadurch fallen vielleicht auch schon einige Hintergrundgeräusche unter die Wahrnehmungsgrenze.

Das Stereomikrofon vom H6 würde ich erst mal sein lassen, weil das einfach prinzipbedingt einen sehr weiten Bereich aufzeichnet. Ein Hack wäre, nur eine der beiden Stereokapseln gezielt auf Deinen Gast zu richten und dann in der Postproduction nur die linke, bzw. rechte Spur des Stereosignals zu nutzen. So habe ich mal mit einem Zoom H1 ein Interview aufgenommen ohne zu viel Hintergrund aufzuzeichnen.

Mittelfristig wirst Du aber mit Headsets mehr Spaß haben, denn die sind robust und klingen gut.

Hallo Joram,
vielen Dank für die Erläuterung und die Anregungen.

Nur ein Punkt vielleicht, an dem wir aneinander vorbei gesprochen haben.
Das USB-Headset wär nur alleine (vom Anschluss her) im Einsatz.

In der Gast-im-selben-Raum-Variante würde ich dem Gast das USB-Headset geben und es direkt am Rechner anschließen. Mein Mikro würde über den H6 laufen. Ich hab das grad mal mit Ultraschall getestet. Hab im Midi-Setup ein Gerät aus H6 und USB-Headset erstellt und so erhalte ich im Routing zwei separate Tracks.

Bei Skype bzw. Soundlink wäre es ja ähnlich, nur dass ich halt dem Gast dann das USB-Headset Schicke und er/sie es bei sich am Rechner ansteckt. Insofern hätte ich zumindestens insofern Kontrolle, als das ich wüsste, was für ein Headset/Mic beim Gast läuft und welche Tücken es hat. Zweitens hab ich das Ding halt schon, und man kann es relativ günstig versenden.

Es sind also zu keiner Zeit mehrere USB-Headsets im Einsatz, sondern nur das was ich schon habe.

Mir geht es halt ein wenig darum, die Einsatzbereiche meiner Hardware flexibel zu halten. So wie beschrieben könnte ich halt das USB-Headset für alle Szenarien nutzen. Gehe ich auf das XLR-Headset, dann kann ich das ja nur in Kombi mit dem H6 nutzen (wg. XLR), da die meisten Skypegäste wohl selten über ein eigenes H6 oder Interface verfügen, und es dann keinen Sinn macht, denen so eins zu schicken.

Ich hoffe, mein Ansatz ist nachvollziehbar.

Grüße,
Cody

Das geht zwar, aber führt gerne mal zum Auseinanderlaufen der beiden Spuren aufgrund von unterschiedlichen Clocks in den Geräten. Im einfachsten Fall lässt sich das per Time-Stretch-Funktion beheben, im schlimmsten Fall ist der Unterschied nicht linear und musst von Hand über die ganze Aufnahme immer wieder gerade rücken. Das Problem ist größer bei längeren Aufnahmen (1+ Stunden).

Deswegen ist das zwar ein guter Weg für den Einstieg, aber eine Variante mit Risiko, dass irgendwann genau bei der wichtigen Aufnahme ein großer Fuckup passiert und Du dann schwitzend in Post alles retten musst. So schon passiert, gibt ein paar Threads mit auseinanderlaufenden Clocks hier im Sendegate.

Proceed with caution.

In diesem Fall ist die Synchronisation weniger ein Problem. Studio-Link übernimmt das Syncing komplett und bei Skype muss man halt einmal am Anfang und am Ende klatschen und dann passt das meistens.

Größtes Risiko beim Versand: Postversagen. Sei darauf eingestellt, dass irgendwann das Headset nicht mehr zurückkommt.