In welchen Formaten nehmt ihr auf?


#17

Oh man, ich probiers mal zu erklären…

Ich nehme auch mit 96 auf wenn ich im Tonaufnahme-Raum bin warum? Aus Gründen. Nicht aus Esoterik!

Zur Audio-Esoterik

Wenn Du Musik machst, wirst Du beim produzieren von Sempler/Simplern auf keinem Falle auf die 96 herum kommen. Da die Daten immer nachbearbeitet werden müssen. Wenn man am letzlich matsch will, nimmt mit 44 oder mit 48 auf.

Am Ende kauft das aber jemand und will damit auch noch etwas produzieren. Ich nehme Klaviere auf in tausender Variation. Das sind am Ende 280GB und mehr für gerade mal 88 Tasten. Wer wissen will wie so etwas klingt, hört sich einfach mal GarageBand an. Das sind gesampelte Pianos. Die klingen eher wie ein E-Piano, das kann man auch selber modellieren, aber jemanden Verkaufen um echten Piano Sound zu haben und damit produzieren zu wollen - wohl eher nicht. Das hat nichts von einem echten Flügel gemein.

Damit kommt es immer auf den Anspruch an. In unseren Falle wollen wir einen echten akustischen Sound auf einem Midi gesteuerten Instrument, so realistisch im Klang haben, damit man sich die Miete und die teure Ausstattung sparen kann. Wenn man mal den Beethoven zelebrieren will und dabei gleich aufzeichnen und produzieren.

Aber mal zum Podcast:

Ich wage stark zu bezweifeln das Du ein Device hast das 96kHz (ds / direct sampling) aufnehmen kann. Du kaufst dir garantiert kein Gerät ab 800-2000 € um “nur” damit zu Podcasten oder Stimme aufzunehmen?

Hier mal ein Beispiel:

Devices die damit arbeiten können kosten ebenfalls >ab< der Preisklasse aufwärts.
Ich nutze als Hauptgerät unter anderen den Vertigo VSC-2 Kompressor der heute sogar unter 5000€ schon zu haben ist und bei mir, mehr als nur seinen Dienst getan hat.

Wenn du also mit “realen” 96kHz aufzeichnen willst, benötigst du ein 24-bit/192kHz (ds) Band, digital Recorder.

Das Aufzeichnen wie @rstockm schon schrieb, ist mit “Standard Devices” (100-400€) also am besten immer in 48kHz, um am Ende mit 44,1 heraus zu bekommen (Soweit sie es unterstützen). Rein von der Musik sind 44,1 so gesehen etwas wenig. Bei Sprache alle male ausreichend!

Ich möchte vor allem die Sprache aufnehmen und nicht das “Noise” also Dreck, den ich am Ende eh wieder heraus filtern muss.

Vielleicht bekommst Du ein 96kHz (bfa, dis / direct inter sampling,) für 3-400 € - ja! Aber das ist ja was komplett anderes. Du kannst also, wenn dein System mein das geht, sicher auch die 96kHz auswählen. Aber das macht ja keiner ernsthaft, wenn er weis, das das garnicht geht. Wenn Du also in 96kHz aufzeichnest tastet oder anders gesagt, fragt dein Rechner dein Audio device ob es Änderungen gibt. Das macht der aber nicht in 96kHz…

Bedeutet der muss das in Paketen tun. So wie eine ALU und der Rest bei einem Rechner das halt so macht. Wenn dein Device das nicht kann, nimmst du mit der höchsten Rate auf die er so kann. Dein Audio wird zu einem toten Bithafen. Da die Welle nicht so oft abgetastet wird nimmt sich mehr Raum ein und ist daher nicht weniger besser. Genau das Gegenteil ist der Fall. Deine Aufnahme wird damit schlechter und das ist in eine 2er Zyklus schon beachtlich schlechter.

Du kannst das ausprobieren, in dem Du eine Aufzeichnung machst und danach auf 48kHz umsetzt. Dann schreit deine DAW wahrscheinlich lauthals das das ja jetzt nicht dein Ernst sei und sie müsse das berechnen. Wenn danach deine Aufzeichnung um das 2 fache langsamer ist, sprich statt Miki Maus, Du klingst wie ein Weihnachtsmann in Zeitlupe, dann solltest Du die Strategie vielleicht ändern und doch lieber in 48kHz aufzeichnen, so wie @rstockm richtig vorschlägt.

Was ist direktes inter sampling in 96kHz?

Das bedeutet nüschts anderes als ich habe eine “Puffer” der bei der Abfrage eines eingehenden Signals schaut was da durchgereicht wird. Das will man gerne in 96kHz machen. Das können Geräte bereits ab 300 bis 500€.

Wozu is das? - wenn man DJ ist, hat man ein haufen Geräte die piiieepen und sonst was machen. Das problem ist, wenn ich die alle verschalte will meine DAW gerne schauen, ab wann es lohnt, einen Abgleich zu machen. Das bedeutet, es will gerne Synchronisieren.
Damit der Bass aus meinen Gerät X, welches zusätzlich mit EQs und was weis ich… Live virtualisiert wird, mit der Melody zusammen abgespielt wird.

Das ist im übrigen auch der Punkt von @Alex_Sandra. Ableton Live schaut sich das im Channel verlaufende Material an und versucht “automagisch” den Takt zu finden.
Wenn du aber Sprache hast dürfte das schwer sein. Es muss dabei alle Tracks, bei einem start auf Play, anschauen, bis es merkt das es nicht wirklich geht. Bei einer Stunde Aufzeichnung wird das also eine ziemliche Tortur sein. Ableton ist das absolut falsche Werkzeug dafür.

Ich hoffe ich konnte ein wenig in das Thema eingehen.

Grüße M.C.


#18

Achja… und was natürlich dazu kommt, ist das was ich oben schon erwähnt habe: Latenz!

Die Audiointerfaces haben immer eine feste Latenz die sich in der Anzahl von Sampels wiederspiegelt und mit dem Puffer zusammenhängt.
Hat ein Audiointerface also eine Latenz ovn 1024 Samples sind das bei 44kHz knapp 24ms. Bei 96kHz bist Du fast bei 10ms.

Das heißt Du drückst die Taste am Keyboard und hörst den Ton 24 Millisekunden später. Bei Latenzen jenseits der 20ms kriegt man als Musiker da einen Vogel und eine Aufnahme ist kaum noch möglich, natürlich spielen kann man erst unter 12ms.

Hat jetzt auch nicht viel mit Podcasting zu tun, sind aber ganz wichtige faktische Gründe die nichts mit Einbildung zu tun haben.

Und nochmal Speicherplatz kostet nichts mehr…
Bei 24/96 liegt man bei knapp 580kB pro Sekunden
Bei 44/16 bei knapp bei 180kB pro Sekunde für eine Stereoaufnahme

Ich hab mal Videopodcasts für Youtube gemacht, da sind wir bei knapp 6MB pro Sekunde (1080p24, komprimiert). DAS kostet Speicher…


#19

Ich bitte um Entschuldigung, ich wollte mit meiner Erwähnung dieses neuen Papiers keinen Krieg auslösen!

Aber folgende Dinge kann ich wirklich nicht unkommentiert lassen:

Dies ist ein Trugschluß! In einem 48kHz .wav beschreibt die Darstellung {-1,0,1,0,-1,0,1,0,…} perfekt einen Sinuston von 12kHz, jegliche Ecken und Kanten trügen Energie im Frequenzbereich oberhalb der halben Samplingfrequenz bei und dies ist in der Rekonstruktion eines Bandbegrenzten Signals eben nicht erlaubt. Dies setzen auch alle DACs um, und daher ist auch z.B. ein Sinuston mit 22kHz noch schön rund, die digitalen Daten sehen aber eher so aus wie eine Schwebung zwischen 22kHz und 26kHz, was sie in gewisser Weise auch sind! Nur die 26kHz werden nicht rekonstruiert und nur die 22kHz bleiben übrig und erreichen den Eingang Deines Audio-Verstärkers.

Ich fürchte, Du bringst hier die Sample-Rate und die Period-Size/Latenz/Buffer-Size durcheinander. Aus Effizienzgründen bearbeitet man Audiodaten eben nicht Sample für Sample, sondern fasst immer einen kleinen Block zusammen der in einem Rutsch berechnet wird. Dies sind dann z.B. 128 Samples bei 48kHz, macht 128/48kHz=2,66ms. Das was man Latenz nennt ist normalerweise genau 2x diese Zeit (in diesem Fall 5,6ms), denn ein Datenpuffer wird immer gerade dann vom ADC befüllt während man am vorherigen Block noch rechnet.

Die einzelnen Samples sind aber natürlich streng periodisch mit z.B. 96kHz oder jeder beliebigen Samplerate die Dein Equipment unterstützt aufgenommen worden. Und das 1. Sample des 2. Blocks entspricht der Amplitude des Eingangssignals genau eine 96tausendstel Sekunde nach dem Zeitpunkt an dem das letzte Sample des vorherigen Blockes aufgenommen wurde.

Das ein Soundfile um eine Oktave tiefer klingt wenn man es ansonsten unverändert mit halber Samplingrate abspielt ist nicht wirklich verwunderlich. Das Ändern von Samplingraten ist aber in der Tat nicht trivial, und es gibt eine sehr schöne Website (Infinite Wave Resampling Comparison) die unterschiedliche Resampling-Algorithmen vergleicht. An den Diagrammen sieht man auch sehr schön, wie sich bei mangelhaften Filtern während der Konversion Frequenzanteile >20kHz in den hörbaren Frequenzbereich heruntermischen. Sieht aber meist schlimmer aus als es ist, alles was lila oder blau ist hat nur noch <-100dB Intensität.


#20

Das gilt vielleicht für Desktop-Rechner, aber nicht für SSD-Notebooks. Jetzt kann man lange darüber streiten ob man solche zum Podcast-Recording nehmen sollte, aber was spricht dagegen auch mit 256 GB SSD Platte glücklich zu werden, wenn man durch 44.1/16/FLAC sechs mal soviel produzieren kann bis der Platz voll ist? und nein, manche Leute wollen kein ständiges hin- und her mit externen Platten.


#21

Ralf bringt’s auf den Punkt. Ich habe gerade 6 Projekte auf dem Rechner. Ist eine 256 SSD. In .WAV zu speichern ist toll, aber das sind halt viele GByte Speicherplatz. Jetzt habe ich mal alle Projekte in FLAC umcodiert und plötzlich habe 40 GByte frei statt 12 GByte.

Externe Platten sind toll, wenn man damit irgendwo in einem Büro o. Ä. sitzt, aber ich will nicht immer noch eine externe Festplatte / SSD mitschleppen müssen. Ich bearbeite mein Audio viel unterwegs, darum bin ich ganz glücklich damit es auf dem MacBook Pro zu haben.


#22

Ich bin ja wirklich mit Dir auf einer Linie was die Qualität angeht…
Aber mal ehrlich, wie viele Stunden Podcast produzierst Du im Jahr?

Und fertige Projekte lassen sich super komprimieren.

Und ja, ich bin auch mit dem Laptop mit 256er SSD unterwegs. Aber zuhause steht der Server mit 10TB Storage.
(davon abgesehen: Die Laptop Platte als einziges Speichermedium zu nutzen ist ziemlich leichtsinnig)


#23

• gibt’n Backupmedium.
• Nicht immer ist über all Internet da, dass ich auf einen 10 TByte Speicher zugreifen könnte.
• Fertige Projekte behalte ich nur im Master, keine Logic Pro X oder Reaper Daten.


#24

O__o
Das würde ich nach dem Wechsel auf FLAC nochmal überdenken - irgendwo solltest du eine Archivkopie deiner Projekte speichern, wer weiß was die Zukunft bald bringt (Stichwort Transkriptionen pro Spur)


#25

Habe ich schon mal drüber nach gedacht. Aber aber in dem Fall ist ein Langzeitspeicher doch recht aufwendig. Meine .WAV Projekte waren regelmäßig 10 GByte groß. Darum entschied ich mich nur für einen ALAC Master, der aus Auphonic fiel. Ich hatte eh viel Übersprechen.

Aber Du hast Recht, jetzt, wo ich das mit den Größen besser hin bekomme, könnte ich meine Projekte mal als Reaper-Daten sichern.

Was halt echt gut wäre, wenn Reaper ALAC lernen würde, aber das ist vllt. nur ein Spleen von mir. Im Vergleich ist ALAC immer ein bisschen kleiner gewesen, als das FLAC, das aus Auphonic fiel.


#26

Habe ich das richtig verstanden? Ihr behaltet die VIP einer Episode, also die Mitschnitte und Co, hebt ihr auf?

Krass!

Also wenn ich etwas mastere bekommt ein Projekt bei mir einen Schlüssel, sprich einen Datenbank EAN-Code. Damit wird später auch die Zuweisung mit der Verkaufs-EAN und Product Lib festgehalten. Sprich, die Originale muss ich mit unter bis 20 Jahre auch selber als der Masterengineer aufheben.

Das mache ich bei Podcast jedoch nicht. Weder bei öffentlichen noch bei damals für Firmen produzierte. Wenn ich 1000 Episoden produziert habe, die ich ohne eine “durchsuchbare” neue Methodik, die es zu dem Zeitpunkt nicht gab, - werde ich mich danach nicht hinsetzen und die noch einmal verarbeiten.

Ich finde es ist etwas komplett anderes. Podcast zeichnet dabei ja nicht nur Verhalten und Gespräch in Ansicht, zu einem Zeitpunkt auf, sonder gibt einen sehr reichhaltigen Eindruck der persönlichen und entstandenen Richtungsdynamik die sich dort abgespielt hat.

Es fühlt sich irgend wie falsch an, ein bestehendes und eine damit geschichtlich geprägte Episode noch einmal anzufassen und “neu” zu erstellen, mit einer Technologie der Zukunft. Ich stehe eher dazu, das die Episoden eher unmöglich klingen und vielleicht den einen oder anderen Fehler bergen. Ich möchte sogar eher die Dynamik und Veränderung eher hörbar machen als sie abzuwandeln, weil sie morgen nicht mehr “Mode” ist.

Oder was meint Ihr eigentlich dazu?


#27

Stimmt schon. Dennoch denke ich, dass es nie verkehrt ist, alles aufzuheben, wenn es nicht zu viel Mehraufwand und -speicherbedarf ist. Besser als sich dann (wieso auch immer) später zu ärgern, dass man die Daten weggeworfen hat. Speicherplatz ist ja wie bereits gesagt echt günstig zu haben.


#28

Sehe ich ähnlich, aber ich könnte mir auch Szenarien vorstellen, in denen man irgendwelche Copyrights verletzt oder Unterlassungsansprüchen ausgesetzt ist und dann quasi vor den beiden Optionen steht Neu Schneiden oder Löschen.

Und wie gesagt: Speicherplatz kostet nicht mehr die Welt…


#29

Hallo zusammen,

ich bin mit meinem Podcast Projekt noch nicht gestartet, aber gerade dabei, alles für den Start vorzubereiten. Daher fand ich die Headline des Beitrages super spannend.

Bei den ersten 2-3 Antworten dachte ich noch: hm, die Idee auf dem Zoom H4n in mp3 aufzunehmen ist evtl. doch nicht so dolle. Wohl doch wieder .wav einstellen. Bei den dann folgenden Beiträgen war ich dann aber leider komplett raus. Das war mir dann einfach zu technisch und ich habe so gut wie nichts von dem verstanden, was da geschrieben wurde.

Nicht, dass ich vollkommen technikfremd bin, im Gegenteil. Aber Audio ist nicht mein Fachbereich und das war mir einfach alles ein Stück weit zu over the top für meine Auffassungsgabe und Umsetzung in “ach so, ja, das ist einleuchtend”

Szenario: ich plane überwiegend mobil aufzunehmen, also nicht in meinen 4 Wänden sondern eher bei den GesprächsteilnehmerInnen, auf jeden Fall mit einem mobilen Equipment (2x Beyer​dynam​ic DT-2​97-PV​/80 MKII, 1x Behringer MICROAMP HA400 Kopfhörerverst​ärker, Zoom H4n). Wie lange die jeweiligen Folgen gehen werden, kann ich aktuell noch nicht sagen, aber so 1 Std ist durchaus realistisch, denke ich.

Ich habe aktuell noch keinen Plan, mit was ich es am Ende schneiden werden. Von Reaper/Ultraschall wird hier ja immer viel, geschrieben, habe mich mit dem Thema aber bis dato noch so gar nicht auseinandergesetzt. Das ist aber ein anderes Thema.

Bitte (noch) einmal verständlich, warum ich nicht (oder doch) in .mp3 und doch lieber (oder auch nicht?) in .wav aufnehmen sollte. Klar, Speicherplatz ist nicht wirklich teuer, habe eine sehr grosszügige NAS hier. Aber über kurz oder lang finde ich, spielt Datenmenge durchaus eine Rolle, da sich das ja doch alles mit der Zeit ansammelt und ich in 3, 5 oder 10 Jahren nicht ein Regal von NAS stehen haben möchte. :slight_smile:

Vielen Dank bereits vorab.


#30

Mit dem H4n würde ich mobil in WAV aufnehmen, 48KHz 16 Bit. Das gibt noch erträgliche Dateigrößen, man kann es überall problemlos weiter verarbeiten und hat aber keine eingebauten Verluste wie bei MP3. Hinzu kommt, dass beispielsweise der Limiter im H4n nur bei WAV funktioniert, wenn ich mich richtig entsinne.
Wie abgehoben auch immer die Debatte oben verläuft: niemand hier (?) wird Dir zu MP3 raten, der Graben läuft ja eher zwischen WAV oder FLAC (H4n kann nur WAV) oder 48KHz vs. 96KHz bzw. 16 Bit vs. 24 Bit.


#31

Danke Ralf, dann werde ich das beherzigen. :slight_smile:

Was die obige Debatte betrifft: der Thread läuft in Kategorie “Einstieg”, ich wollte nur signalisieren, dass sich EinsteigerInnen hier evtl. ein klein wenig überfordert fühlen könnten… :slight_smile:


#32

Ich nutze den H4 seit ca. 6 Wochen und habe ca. 20 Stunden damit aufgezeichnet.

Ich arbeite nicht mit Hör- Sprechgarnituren, sondern mit Lavaliermikrofonen (Also Ansteckmikrofonen).

.WAV ist halt ein super Rohformat. Weil es wenig Rechenbedarf hat, verbraucht es weniger Strom.
Ich zeichne mobil mit dem Zoom H4 immer in 96khz und 24 Bit auf. (probiere es aber mal mit 48 kHz). Der Vorteil ist halt, dass Du wirklich “echte” Abtastraten bekommst, die Dein Aufnahmegerät aufzeichnet, da ist nichts komprimiert, also höhen oder Tiefen abgeschnitten. Also quasi in den Wellenformen ab einer gewissen Grenze einfach weggeworfen wird.

Ich persönlich ziehe das .WAV dann in mein Reaper / Ultraschall und wandle beim Import in .FLAC, da hier kein Verlust der Qualität eintritt und trotzdem komprimiert wird. Also, ähnlich wie beim .zip oder .tar. Da wird Dein PDF ja auch nciht schlechter gemacht, aber gepackt und klein gemacht – quasi wie ein Gas, das Komprimiert wird, das Volumen wird geringer, die Masse aber nicht.

Ein-Satz-Zusammenfassung:
Zeichne mobil mit Deinem H4 in .WAV auf, wirf es dann in ein Reaper mit Ultraschall und konvertiere es in .FLAC. Das gemasterte .FLAC kannst Du dann zu Auphonic jagen und die codieren es in Deine gewünschten Ausgangsformate.


#33

Danke @Wilhelm für Deine Ausführungen. Auch diese werde ich bei meinen nächsten Schritte mit berücksichtigen. :slight_smile:

Das Thema Reaper/Ultraschall wird in Kürze der nächste Punkt sein, mit dem ich mich eingehender befassen (muss). Von .FLAC bisher noch nie etwas gehört, aber ist auch nicht schlimm denke ich. :smiley:


#34

[quote=“SteveRueck, post:29, topic:3641”]
Bei den dann folgenden Beiträgen war ich dann aber leider komplett raus.[/quote]

Naja, wir “streiten” über goldene Wasserhähne… Nimm auf jeden Fall als WAV auf. Bei MP3 hast Du immer Verluste, wenn Du noch bearbeiten willst.

Beim aufnehmen wird die MP3 berechnet (Kompression). Wenn Du es dann im Editor öffnest, wird es wieder in die entsprechende Wellenform umgewandelt (Dekompression) und dann speicherst Du es nochmal als MP3 ab um es über den Äther zu schicken (Kompression). Und mit jeder neuen Umwandlung rechnest Du Dir Artefakte und Verluste rein.

Und lass Dich nicht verwirren: 16bit/48kHz sollte unter normalen Umständen ausreichen.

Gruß, Dave


#35

Ich habe die Lücke jetzt mal behoben und ein Vergleichsbeispiel 16 vs. 24 bit aufgenommen. Alle beide 44.1 kHz weil das reicht und ich da einmal noch einmal 48=>44.1 'runtersamplen muss. Das Quantisierungsrauschen ist da schön zu hören.


#36

Hallo Alex_Sandra,

ich finde die Frage überhaupt nicht doof und freue mich, dass noch jemand sich nicht zu 100% mit allem hier auskennt. Ich werde die Antworten auf deine Frage gespannt mitverfolgen, so können wir beide davon lernen… :slight_smile:

LG