Die 48 kHz - Frage

Mir ist aufgefallen, dass in manchen Beiträgen gerne - immer wieder - eine Abtastrate von 48 kHz empfohlen wird. Manchmal trägt das gar Züge einer “ultima ratio”.
In manchen Beiträgen taucht diese Abtastrate gar als Tipp zur Fehlerbehebung auf, was mich nun vollends verwirrt hat.

Da brauche ich jetzt mal wirkliche Podcaster-Unterstützung von euch: Warum?
Sorry, ich versteh’s grad’ net. Was genau ist der Zauber der 48 kHz? Und, vor allem: Warum wird stellenweise sogar eine Einstellung auf 48 kHz als “Reparaturmaßnahme” empfohlen, wenn was am Klang schräg sein sollte?

Da ich hier von meinem technisch-logischen Verständnis überfordert bin, bitte ich um Fortbildung, denn da bin ich neugierig und möchte dazulernen.

  • Geht es ums reibungslose Downsampling von 96 oder gar 192 kHz bei hochwertigen Produktionen, um sie danach auf DVD zu brennen?
  • Was spricht gegen die “klassische” CD-Qualität von 44,1 kHz bereits im Aufnahmeprozess?

Was genau ist der mystische Glanz der geheiligten 48 kHz?
Vielen Dank für eure Unterstützung.

Da die Frage häufig im Zusammenhang mit Ultraschall und Studio Link gestellt wird, ist die Antwort 48kHz weil der Opus Codec für VoIP/AoIP nur bestimmte Sampleraten unterstützt und 44,1 kHz keine davon ist. Da ein Resampling nur unnötige Latenz bringt und eine Fehlerquelle mehr ist, raten wir die ganze Audio Kette mit 48kHz zu betreiben.

Edit: Hier noch ein Auszug zu dem Thema von den Opus EntwicklerInnen:

How do I use 44.1 kHz or some other sampling rate not directly supported by Opus?
Tools which read or write Opus should inter-operate with other sampling rates by transparently performing sample rate conversion behind the scenes whenever necessary. In particular, software developers should not use Opus Custom for 44.1 kHz support, except in the very specific circumstances outlined above.

Note that it’s generally preferable for a decoder to output at 48kHz, even when you know the original input was 44.1kHz. This is not only because you can skip resampling, but also because many cheaper audio interfaces have poor quality output for 44.1kHz.

The opus-tools package source code contains a small, high quality, high performance, BSD licensed resampler which can be used where resampling is required.

But won’t the resampler hurt the quality? Isn’t it better to use 44.1 kHz directly?
Not really.

If you can’t tolerate the quality degradation caused by a good 44.1 ↔ 48 kHz resampler, then you shouldn’t be using a lossy codec in the first place. Any reasonable resampler will cause far less distortion than even the best lossy codec at its highest bitrate.

Not only that, but even if you could run Opus at 44.1 kHz, it wouldn’t help you. The Opus encoder is heavily tuned for 48 kHz now and using it at 44.1 kHz will cause it to make sub-optimal decisions. This would result in worse quality than a 48 kHz encoding with resampling. If you’ve ever noticed that an MP3 encoder sounds worse at 48 kHz than at 44.1 kHz, then it’s mostly likely not because of the resampling, but because most MP3 encoders are tuned for 44.1 kHz rather than for 48 kHz.

Quelle: https://wiki.xiph.org/OpusFAQ#How_do_I_use_44.1_kHz_or_some_other_sampling_rate_not_directly_supported_by_Opus.3F

4 „Gefällt mir“

Ja, das ist logisch, wenn man den Codec mit ins Prozedere einbezieht.
Im übrigen halte ich Artefakte durch Resampling für ein vermeidbares Ärgernis. Und tatsächlich scheint wohl kein Podcast ohne Studiolink auszukommen. So weit bin ich allerdings noch nicht.

In Bezug auf “verzerrte Stimme beseitigen” (was im übrigen den Fehler erwartungsgemäß auch nicht behob), war ich jedoch schon verwundert über die professionellen Ratgeber, die das zur Störungsbeseitigung in den Ring warfen.
Als allgemeiner Tipp allerdings, so wie von Dir beschrieben, ist das gleich viel leichter nachvollziehbar.

Was @sreimers schreibt. Wenn es diese OPUS Einschränkung nicht gäbe, hätten wir vor ca. drei Releases alles komplett auf 44.1 umgestellt und das empfohlen - ist halt für die meisten erst mal der Startpunkt.

Aber so sind halt 48KHz alternativlos, daher das Mantra.

Hier http://src.infinitewave.ca/ gibt’s coole Visualisierungen der Qualität verbreiteter Resampling-Algorithmen. Hörbare Artefakte existieren beim Stand der Technik nicht mehr (Algorithmen von Sox, neuer Reaper).

AC97-Audio (früher…) konnte in Hardware nur 48kHz (d.h. der „Treiber“ hat dann hoch- und runterkonvertiert), und auch ein paar USB-Interfaces waren bei 44.1kHz zickig (1kHz 8kHz USB Frame Rate ist kein ganzes Vielfaches). Daher kommt wohl die Empfehlung bei Problemen auf 48kHz umzustellen, der Rat ist bei moderner Technik sicher inzwischen hinfällig.

Grundsätzlich ist 44100 aber eine ganz hässliche Zahl: http://www.wolframalpha.com/input/?i=prime+factors+of+44100 zum Vergleich http://www.wolframalpha.com/input/?i=prime+factors+of+48000 :slight_smile:

3 „Gefällt mir“

selbst mein uraltes Roland UA25ex kann schon 96khz 24bit - und das ist 15jahre alt.
warum sind wir heute nicht längst bei 192khz oder gar 384khz bei 48bit einfach zum aufnehmen und zum wiedergeben in der hifi und highend welt - für konsumer wirds dann auf 48khz oder 44,1khz runtergerechnet und gut ist es.
Auch MP3HD gibts seit min 5jharen jetzt - warum setzt sich das nicht durch oder man verrent sich in speziellen formaten grade in der hifi welt wie DSD, MQA und was auch immer.
Wenn Opus super gut klingt warum setzt sich das nicht durch ?
Warum muss Apple immer ein eigenes süppchen kochen mit ihrem Soundformat - warum gibts zur kommerziellen Codec version immer eine freie die dann unglücklicherweise nicht kompatibel ist.

'Meine CD sammlung hätte ich dem nach Xmal neu Rippen müssen was bei 1000 CDs mit im schnitt 12 Lieder dann 12000stücke wären nach Itunes Rechnung dann aber 1euro je Stück also 12000euro - gut man kann nun sagen man hat die CDs auf ca 20-30 Jahre gekauft was dann nur 400euro bzw 40euro im jahr monat für Musik wären - aber auf einmal so viel geld investieren ne da gibt es wichtigeres.
Wie auch immer auch wandeln ist ja nicht die lösung da ja wenn falsch gerippt und nix da ist die verluste erhalten bleiben oder eher mehr werden.
also müsste man heute mit höherer auflösung rippen um es dann in deutlich geringerer auflösung ab zu hören.
Natürlich würde man dann das orginal als WAV in super Highres auf HDD auf bewahren und eine zweite HDD mit passenden wandlungen behalten.

Die Antwort auf: “Warum ist nicht alles ultra-high res” lautet: Weil es (fast) niemand braucht. Nutzer hören Audiocontent auf einfachen Kopfhörern, übers Radio oder über Webstreams. Für die paar, die meinen, einen Unterschied zu hören, gibt es flac.
Höhere Qualität braucht mehr Platz. Das ist ein Trade-Off der nur in wenigen Fällen sinnvoll ist, insbesondere wenn wir hier von Podcasts sprechen, die auf mobilgeräten gehört werden. Wozu sollte ich gigantische Dateien anlegen, wenn am Ende ein mp3 für mitgelieferte In-ears rausfällt?

4 „Gefällt mir“

Sprechen wir über den PRODUKTIONSPROZESS oder über die 'rausgerenderten Download-Dateien?

Für die Daten während der Produktion empfehle ich (TL;DR: 24bit @48kHz):

WAV vs. komprimiert (MP4, OggVorbis, Opus, AAC, …)
Verlusthaft komprimierte Daten will man IM PRODUKTIONSPROZESS nicht haben, da bei denen eventuell noch vorhandene Soundreste hinter Störgeräuschen (Knacksern, Feedbacks) wegmaskiert und gelöscht werden. Und wenn man dann die Störung wegfiltert, dann ist “dahinter” leider nichts mehr. Also bis zum letzten Rendern bitte nur Rohdaten verwenden.

WAV vs. verlustlos komprimiert (FLAC)
Datenfehler betreffen bei WAV nur das jeweilige Sample - bei FLAC u.ä. sind dann aber gleich einige Sekunden kaputt. Daher bitte kein FLAC während der Aufnahmen. 'Rausgerendert und zum Hochladen nach Auphonic o.ä. ist das aber prima (weil kann man ja wieder herstellen).

44.1kHz vs. 48kHz
Da jede Umwandlung der Sampling Rate mit Verlusten einhergeht, sollte man das nehmen, was durch Dritte “vorgegeben” ist. Wer also viele CD-Rips (@44.1kHz) hineinschneidet und keinen OPUS-Output braucht, der sollte 44.1kHz nehmen - alle anderen 48kHz.

höhere Samplingraten: 96kHz, 192kHz und mehr
Hört (spätestens nachher) eh’ keiner mehr und ver-X-facht dei Datenmenge. Sein lassen.

16bit vs. 24bit
Gegen Überteuerungen im Mikro-Eingang will man niedrig ausgesteuert mit 24bit aufnehmen (siehe Vergleich 24bit vs. 16bit). Das kann dann auch einen Analog-Limiter ersetzen.

dagegen:

'Rausgerendert für die Zuhörer
…wird dann das, was auf den Zielgeräten gut gehört werden kann - üblicherweise 128kbit/s MP3 (weil kompatibel) und Opus (weil gut) in Stereo, dazu dann noch mal wahlweise 24kbit/s Opus (mono) für Winz-Dateien.

5 „Gefällt mir“

[quote=“vtanger, post:8, topic:4897”]Verlusthaft komprimierte Daten will man IM PRODUKTIONSPROZESS nicht haben
(…)
Da jede Umwandlung der Sampling Rate mit Verlusten einhergeht, sollte man das nehmen, was durch Dritte “vorgegeben” ist.
(…)
höhere Samplingraten: 96kHz, 192kHz und mehr
Hört (spätestens nachher) eh’ keiner mehr und ver-X-facht dei Datenmenge. Sein lassen.[/quote]
Unterschreibe ich komplett und mit Freude. :slight_smile:

Achtung! Bei dB, genauso wie bei den Bits, ist doppelter Wert nicht doppelt so gut, so laut oder so rauschfrei. Ein Bit = Doppelte Spannung = Vierfache Leistung = 6dB. (denn 10^0.6 = 3.98).

Schon von 16bit auf 24bit (+8bit) gewinnt man 48dB (=68) an Dynamik, und ist damit längst weit unterhalb des Rauschens sämtlicher real existierender Mikrofone/Preamps. 48bit wären nochmals 144dB (!!! = 624) mehr!

2 „Gefällt mir“

Ob man das hört oder nicht ist doch egal wie lange gibts die CD da muss doch nach 30jahren jetzt mit völlig anderen PC Power und co möglichkeiten 192khz 48bit standart sein.

Deinen Podcast kannste doch noch immer auf Mono und 16bit runter rechnen damit die datien zum ausliefern klein sind.
wenn man das nicht eh kostenlos an Youtube oder Soundcloud übergibt.

Ob mans hört ist der Gag an der ganzen Sache,sonst brauchst Du keine bessere Audioquali. Es ist nur dann uninteressant,wenn Du vorhast eine Fledermausband zu gründen :stuck_out_tongue:
Für verlustfrei in Deiner gewünschten Qualität gibts doch schon genug Formate, sogar mit Multichannel und allem pipapo, sonst könnten die von den Interfaces gelieferten Daten ja gar nicht gespeichert werden.

Ich versteh also nicht ganz was Du meinst…

2 „Gefällt mir“

Leider falsch.

Wer schon eine gewisse Menge an Aufnahmen gemacht hat, dem ist schnell klar, warum „reicht völlig“ auch völlig reicht (Hint: bei mir im Keller stehen akut 32 TB an Platten im NAS).

Theoretisch könnte ich auch 16bit@100MHz mit dem Digital-Oszi aufnehmen - aber das bringt mir außer Datenmenge rein gar nichts. Schon die CD/DAT–Parameter (16bit@44.1/48kHz) sind so gewählt, dass die deutlich über alles 'drüber hinaus gehen, was das menschliche Ohr überhaupt hören kann.

24bit in der Aufnahme sind für analoge Audioaufnahmen sinnvoll, da man dort mit reichlich Headroom arbeiten und möglichen Übersteuerungen aus dem Weg gehen kann (siehe oben). Mehr braucht es einfach nicht (48dB zusätzlicher Headroom sollten reichen - oder man muss den SoundEngineer wechseln). Und für Ziel/Quellpublikum Mensch reichen die 44.1/48kHz dicke. Mehr braucht man höchstens für Fledermäuse oder Delphine.

Alls andere ist nutzlos und auf Dauer/Menge einfach zu teuer.

5 „Gefällt mir“

Da wir heutzutage in der Lage sind, technisch hochgezüchtete Motoren in Serien-Kfz einzubauen und mit ABS, ASR sowie jeder Menge Sensoren = Rechenpower in Autos ganz andere Möglichkeiten als früher bestehen, sollten 100 km/h in der Stadt und mindestens (!) 140 km/h auf Autobahnen Standard sein.

Klingt das bescheuert?
Für mich jedenfalls: Ja.
Ist aber im Grunde nichts anderes, als Deine Argumentation auf ein anderes Feld zu projizieren.

Wie auch immer: Meine Ursprungsfrage wurde ja schnell und zufriedenstellend beantwortet. Die sich daraus entwickelnde Qualitätsdiskussion fand ich dann doch bemerkenswert.
Meine Meinung dazu: Wie ihr hausintern produziert und speichert, ist mir vollkommen wumpe, solange das Ergebnis angenehm anzuhören ist. Und ich habe auch nichts gegen ein Resampling, solange sich der Multiplikator / Divisor im ganzzahligen Bereich bewegt (48 / 96 / 192 kHz bzw. 24 oder 48 Bit).

Ob man deshalb auch einen aufgeblasenen Podcast raushauen sollte - nun, da sollte man sich danach richten, was die Hörer von einem erwarten (wenn ich ein hochwertiges Atmo-Feature produziere, ist das etwas anderes als wenn ich einen Telefon-Talk abliefere). Wenn die Unterschiede nur marginal hörbar sind, lohnt es sich nicht.

Was ihr zuhause speichert, ist ja wiederum eine ganz andere Baustelle.
Geht mir nicht anders: Mein Musikarchiv ist hochwertig gerippt, auch wenn ich es, so ich denn wieder mal auf Sendung im Webradio gehe, aller Voraussicht nach doch nur mit 128 kbps @mp3 encodieren muss. Aber ich wäre vom Ursprungsmaterial her auf einen anderen Codec, der die Qualität hörbar besser rausbringt, jederzeit vorbereitet.

Beim Podcast sehe ich das jetzt nicht so: Der wird einmal produziert und veröffentlicht. Richtig?
Von daher sehe ich hier die Qualitätsdiskussion jetzt noch nicht so stark wie manche in diesem Thread.
Im übrigen bin ich - wieder einmal - voll bei @vtanger, der mir hier so eine der wenigen vernünftigen und mahnenden Stimmen auf dem technischen Sektor zu sein scheint.

Zum Schluss noch einen Nebenkriegsschauplatz in Sachen „Wenn die Leistung da ist, sollte man sie auch nutzen“:
Ich habe recht viel mit Veranstaltungstechnik zu tun. Darunter fällt auch die Funkmikrofonie. Nach dem ersten Einschnitt in Sachen DVB-T (noch nachvollziehbar) kam der nächste große Dämpfer in Sachen LTE. Uns wurden immer mehr Frequenzbereiche „geklaut“, bei zugleich steigendem Verlangen nach Funkstrecken. Und das nur, weil irgendjemand da draußen das mobile Internet noch immer nicht schnell genug war.

Mal ganz ehrlich: Stehen eure Smartphones auf LTE (4G) oder reichen euch auch 3G?
Welche Anwendungen benötigt ihr unterwegs zwingend, die einen hohen Datendurchsatz von 4G an Ort und Stelle erfordern? Wäre das nicht auch mit 3G möglich oder einem vorherigen Downlaod im W-LAN?
Wenn Du in einer Location stehst, in der 300 Leute mit Smartphones unterwegs sind, dann wird’s für die Funke bald aber eng (nur zur Veranschaulichung: Von den Sennheiser-Presets der ew 100 G3-Strecke sind seit der LTE-Verfügung per 31.12.2015 über 200 verfügbare Ausweichfrequenzen verloren gegangen!).

Ihr seht mir bitte nach, dass mir daher eine Argumentation nach dem Motto „Ich mach’s, weil es geht, obwohl ich es nicht unbedingt brauche und hätte es trotzdem gerne als Standard“ ziemlich auf den Zeiger geht.
Sie ist nämlich einfach nicht zu Ende gedacht.

1 „Gefällt mir“

“Schon die CD/DAT–Parameter (16bit@44.1/48kHz) sind so gewählt, dass die deutlich über alles 'drüber hinaus gehen, was das menschliche Ohr überhaupt hören kann.”

Stimmt fast aber nicht ganz. Speziell Klassikorchesteraufnahmen haben manchmal einen Dynamikumfang, der an leisen Stellen bei 16Bit schonmal zu hörbaren Quantisierungsrauschen führen kann(ich glaub Jazz ist da auch so ein Kandidat, evtl auch noch Klangkunst), es sei denn Du fummelst hinterher noch an der Dynamik und der Lautheit rum(wofür Dich Puristen ohnehin am Liebsten ans Kreuz nageln würden, wenn CD da nicht schon Grenzen setzte :wink: )
Mit 24Bit biste da aber an sich fein raus…

ABER, und da würd ich Dir Recht geben, fürs alles Andere reichen die 16Bit eigentlich dicke aus(speziell wenn ohnehin alles ans Maximum-Volumelimit rankomprimiert wird), die 44.1/48khz ohnehin. Erst recht, wenns um Sprache geht oder 99.9% aller Musik, Und eventuelle Fehler kann da unser Gehör ohnehin meist rausrechnen, falls doch mal was schief läuft…sonst würden wir bei niedrig-Bitraten-MP3 die Krise kriegen XD

Höher braucht man an sich nur für Messungen(oder wie Du ja meinst, Delfine, Fledermäuse), aber dafür gibts besseren Aufnahmekram, als alles, was wir hier in der Podcastercommunity verwenden.
Und teurer vor allen Dingen :wink:

Was hast Du eigentlich auf 32(!)TB(!) drauf? Das wird doch nicht nur Audio sein…oder besitzt Du ein gesammeltes Musikarchiv der Welt? (wenn ja: haben wolln :wink: )
Ernsthafte Neugierfrage…

32 TB sind die Rohkapazität - die hören sich eindrucksvoller an als die 8-9TB Nutzdaten:
20 TB in RAID1 (10TB netto) im Haupt-NAS,
12 TB in RAID0 im asynchron gesyncten Fallback-Backup-NAS (die “richtigen” Backups gehen eh’ auf Offline-Medien)

Gerade die Live-Mehrspur-Audioaufnahmen ziehen ganz schön 'rein. Gerade wenn man Live einfach nur den 32-Kanal Feed vom Mixer 24bit@48kHz über mehrere Tage nimmt. Vor jedem Stück Kanäle an- oder abzuschalten hat sich einfach als zu fehlerträchtig erwiesen - also sortiere ich erst später im Downmix aus. Leider habe ich das schmerzhaft gelernt, da ich von einigen Performances wesentliche Kanäle nicht mehr habe, da ich Platz sparen wollte…
:frowning:

Daher dürften von dem Archiv etwas mehr als die Hälfte HD-Aufnahmen von Stille oder unbenutzten Mikros sein.
:wink:

Zusätzlich macht meine Frau Videoaufnahmen und viele (RAW-) Fotos. Das macht dann den anderen großen Block aus. Aktuell ist das bei uns je nach Veranstaltung meist so jeweils 1/3 Foto + Audio + Video.

Multipliziert mit zweistelligen Jahren ergibt das halt ein erkleckliches Datensümmchen.

Ich bin echt froh, dass es die Einschränkung von OPUS gibt, denn 48kHz ist die Standardeinstellung für Video. Und ich verwende Ultraschall als DAW für die Soundnachbearbeitung bei Video. Insbesondere nach der Veröffentlichung der Version 3. Jetzt werde ich wohl doch von FCP aus Adobe Premiere umsteigen müssen, das FXP keine Spuren kennt.

Aber im Video haben wir doch innerhalb von kürzester Zeit den Sprung von HD auf 4k gemacht und quasi 2k völlg aus gelassen - jedenfalls gefühlt bzw bei der Aufnahme durch die Kameras.
Klar in der Wiedergabe sieht das wieder anderst aus.
Nach dem Jahrelang nix passiert ist - gibt es FullHD im Budeget notebook bereich
2k setzt sich im Tablett und Notebookbreich druch - klar eher hochpreisige modelle.

Also warum beim ton auf 48khz rum krebsen wenn shcon lange 192khz oder gar 256khz möglich sein könnten.

Ob man das dann runder rendert steht ja auf einem anderen blatt.

Ich finds auch lächerlich Vlogs auf Youtube in 4k an zu sehen - bei einem technik podcast mit detail aufnahmen könnte das noch sinn machen aber sonst. Klar ist es Bandbreiten verschwendung.

Was nur die gesamt verfügbare Kapazität im Internet und vorallem Local bei den Providern runter zieht.

Eben so sehe ich das im übrigen auch bei den online spielen - bei einem Ballerspiel brauch ich doch keine super hoch auflösenden Details ganz ganz weit am rand.

Weil uns schlicht und einfach die Sinnesorgane fehlen um die dadurch abspielbaren Frequenzen hören zu können. Bei der Bittiefe haben wir mit 16bit bereits den Bereich zwischen Hörschwelle und Schmerzgrenze abgedeckt (0dB Hörschwelle vs. 100dB Kreissäge in 1m Abstand), und über 22.05kHz hört kein Mensch. So sehr ich mich auch anstrenge, ich kann meine Ohren nicht dazu bringen die Nuancen eines ultraleises 30kHz Geräusches in der Gegenwart eines laufenden Schmiedehammers wahrzunehmen.

Bei einem 4k Video kann ich zumindest näher rangehen (oder im Videoplayer Zoomen) und dann Details sehen.

Und zu der ach-so-progressiven Video-Welt: In Video waren Jahrzehnte lang 8bit für die R/G/B Signale üblich (effektiv sogar weniger, da in einigen Formaten nur Level von 16-235 verwendet wurden!), und erst jetzt kommt langsam mal HDMI mit 10bit in die Gänge. Und das ist etwas, was man in Farbverläufen (Himmel, glatte Wolken) wirklich sehen kann. Das wäre, als würden die Audio-Welt so langsam mal von 32k/14bit → 48k/16bit aufrüsten.

Wir als Audio-Hobbyisten (und ein paar Profis) sollten uns freuen dass uns inzwischen für sehr wenig Geld elektronische Geräte zur Verfügung stehen die unsere Podcasts, Konzerte oder Shows quasi transparent aufzeichnen und wiedergeben können. Also lass uns nicht Geld, Zeit und Aufwand irgendwelcher Esoterik hinterherwerfen.

5 „Gefällt mir“

@pinknoise Du vergleichst mit räumlicher Auflösung bei Video. Und auch da nähren wir uns derselben Wahrnehmungsgrenze: alles jenseits der 600-1200dpi ist schlicht nicht mehr ohne Lupe erkennbar ist (dürfte ca. 4k auf 4" Display entsprechen, also einem alten iPhone).

Allerdings ist bei optischer Wahrnehmung die örtliche Wahrnehmung (hier: 2-3 Dimensionen) deutlich besser getrennt als die Schattierungen (siehe @Christian_Vogel oben: pro Farbkanal reichten bislang 7bit aus) - bei Audio ist das genau andersherum,

Denn in der räumlichen Auflösung liegen wir bei Audio schon seit Jahr(zent)en maximal bei 8bit@10Hz - der PAN-Regler hat bei MIDI den Wertebereich 0-255 (eine Winkelauflösung von unter 1° kann eh’ keiner mehr hören), und von links nach rechts geht dann auch nicht mehr sinnvoll schneller wahrzunehmen - und dabei gehe ich hier schon von einem durch das Panorama pfeifenden Querschläger aus. Da dürfte sich von der örtlichen Auflösung auch nichts mehr ändern.

1 „Gefällt mir“