Gute Equalizer-Settings für Stimmen

Parallel zur Diskussion von "Schöne Ecken"-Sound hatte ich mich für Ospac schon auf die Suche nach guten allgemeinen Equalizer-Settings für Sprache gemacht, die man als Option aktiveren kann.

Gefunden hatte ich https://larryjordan.com/articles/eq-warm-a-voice-and-improve-diction/ , wo nach Erklärung folgender Vorschlag gemacht wird:

Frauenstimmen: +4dB um 400Hz, +5dB um 4kHz
Männerstimmen: +4dB um 190Hz, +5dB um 3kHz
Sowie “gewisse” Absenkung unter 100Hz wegen Rumpeln und über 5kHz wegen Zischen.

In ospac experimentiere ich daher (–eqvoice) mit Absenkung in 0-100Hz, Anhebung 100-400Hz, Neutral 400Hz-3kHz, Anhebung 3kHz-4kHz und Absenkung darüber- jeweils mit gewissen Übergängen zwischen den Trennfrequenzen.

Habt Ihr Erfahrungen für sinnvolle allgemeine Equalizer-Settings?

2 „Gefällt mir“

Wichtiges Thema! Oft zerbrechen sich die Leute die Köpfe bei der Mikrofonwahl, obwohl man am Ende kaum einen Unterschied hört. EQ, mit dem man viel mehr herausholen könnte, wird oft vernachlässigt.

Wie ich schon in diesem Thread erwähnt habe, kann ich dieses Cheat Sheet sehr empfehlen. Dort gibt’s auch Erklärungsvideos dazu.

Welche gute EQ-Plugins könnt ihr so empfehlen? Ich nutze gerne das schicke, mächtige & kostenlose TDR Nova (das kann auch Kompression).

Zur Anwendung:
Ich finde es wichtig, zu verstehen, dass EQ sehr individuell ist. Ich würde mich also eher von generellen Empfehlungen entfernen und individuell konkret “Probleme” angehen. Ja, das ist aufwändiger. Also: Was ist das Problem im Klang? Wo kann ich das wie ausbügeln? Beispiel: Ich habe einen zu “bassigen” Klang (Proximity-Effekt lässt grüssen). Wie muss ich am EQ wo schrauben, damit ich das verbessern kann?

1 „Gefällt mir“

Auch oft übersehen: für welche Abhörsituation produziere ich eigentlich und was braucht die für EQ-Parameter. Meine Devise: man sollte für 90% der klassischen HörerInnen produzieren: und die hören die Podcasts mit Earpods, Beats oder ähnlich wenig High-Endigem Equipment. Für das Mastering lege ich daher am Ende meine Studio-Kopfhörer weg und nehme eher günstige für den Feinschliff.

4 „Gefällt mir“

[quote=“Joey, post:2, topic:2879, full:true”]Oft zerbrechen sich die Leute die Köpfe bei der Mikrofonwahl, obwohl man am Ende kaum einen Unterschied hört.
(…)
Beispiel: Ich habe einen zu “bassigen” Klang (Proximity-Effekt lässt grüssen). Wie muss ich am EQ wo schrauben, damit ich das verbessern kann?[/quote]
Ich werde gerade das Gefühl nicht los, dass Du Dir selber widersprichst.
Darauf komme ich gleich zurück.

Natürlich ist die Mikrofonwahl sehr wichtig - es sei denn, Du vergleichst zwei eng beieinander liegende Testkandidaten im vergleichbaren Preisfeld.
Aber ich habe schon Mikrofone zurückgegeben bzw. weiterverkauft, die technisch zwar sensationell waren, aber für meinen Aufnahmezweck einfach nicht genügten oder neben ihren Vorteilen einfach auch hörbare Nachteile mit sich brachten.

Umgekehrt hatte ich es mit Billig-Kandidaten zu tun, die noch schlechter klangen als es ihr Preis schon androhte.
Dann gibt es noch die Modelle, die nur mit dem richtigen Vorverstärker zeigen, was sie wirklich können, während sie an anderen Geräten fürchterlich den Bach runtergehen würden.

Ganz so einfach ist es nun doch wieder nicht.
Deine Meinung mag aus Deiner Sicht stimmen, wenngleich ich nicht weiß, welche Bauweisen und Wandlertypen Du schon gegeneinander ausprobiert hast und was Du für Dich als am besten empfunden hast. Aber das mit dem “kaum einen Unterschied” ist, bei aller Höflichkeit, komplett falsch.

Lach’ mich nur aus, aber selbst die Wahl des Popschutzes kann einen erheblichen Einfluss haben.
Daraus folgt: Bevor ich am EQ fummle (was ich bei parametrischen Mitten manchmal mache, ja), setze ich erst mal die geeignete Technik ein, um danach möglichst wenig korrigieren zu müssen.

Dann führst Du den Nahbesprechungseffekt ins Feld, den Du mit einem EQ korrigieren willst. Ich sage: Wie wäre es einfach mit einem (nur geringfügig) größerem Mikrofonabstand? Bei mir gab es noch nie den Nahbesprechungseffekt, außer wenn ich ihn bei besonders leisen Moderationen als Stilmittel eingesetzt habe.
Genau hier greift nämlich der Widerspruch: Wenn Dein Mikrofon viel zu früh den Nahbesprechungseffekt zeigt, ist es für Dich nicht geeignet. Genausogut könntest Du auch zu einer Niere greifen, bei der der Nahbesprechungseffekt erst bei extremer Nahbesprechung (Stilmittel!) hörbar wird.

Wie ich stets sage: Ohren auf beim Mikrofonkauf.
Das universelle “Das Mikrofon muss ich auch haben, damit ich ebenso geil klinge” gibt es nicht!

Als “EQ des kleinen Mannes” könnte man hier zur Not immer noch den HighPassFilter aka LowCut zünden, der bei manchen Mikrofonen als Schalter verfügbar ist und je nach Modell ab verschiedenen Frequenzen mit unterschiedlicher Steilheit greift.

Anhand Deines sehr speziellen Beispiels empfehle ich, ganz allgemein, erst mal etwas an der Aufnahmetechnik zu verbessern, bevor Du dann - im zweiten Schritt - zum EQ greifst.

Gruß, Uli

2 „Gefällt mir“

[quote=“rstockm, post:3, topic:2879”]
Für das Mastering lege ich daher am Ende meine Studio-Kopfhörer weg und nehme eher günstige für den Feinschliff.
[/quote]Daran sollte ich mich öfter erinnern. Das Endprodukt sollte im Zug mit einfachen in-ear Kopfhörern gut klingen.

[quote=“UliNobbe, post:4, topic:2879”]
es sei denn, Du vergleichst zwei eng beieinander liegende Testkandidaten im vergleichbaren Preisfeld.
[/quote] Genau. Das Preisfeld muss dabei nicht mal so vergleichbar sein. Natürlich ist die Wahl des geeigneten Mikrofontypen wichtig. Hat man diese Wahl erstmal erfolgreich getroffen, spielt die weitere Auswahl eine überraschend kleine Rolle. SM7b, Procaster, RE20 oder doch “nur” ein SM58? Das meine ich mit (unnötigem) Kopfzerbrechen. Gerade, wenn man den Hinweis von @rstockm beachtet. Hier vielleicht ein anschaulicheres Beispiel - wobei da sogar sehr unterschiedliche Typen miteinander verglichen werden.

[quote=“UliNobbe, post:4, topic:2879”]
Wie wäre es einfach mit einem (nur geringfügig) größerem Mikrofonabstand?
[/quote] Das hilft, wenn man sich das erlauben kann. Sicher gut, dies als einfachen & generellen Hinweis zu nennen, falls das jemandem hilft. Um vielleicht von der anderen Seite her zu denken: (Ein fiktives) Ich muss sehr nahe ans Mikro. Der Nahbesprechungseffekt - den ich vielleicht nicht will - folgt. Natürlich kann man jetzt anführen: Wenn man nah ans Mikro muss, ohne es zu wollen, läuft sonst was schief. Die äusseren Umstände kann man leider nicht immer verbessern.

[quote=“Joey, post:5, topic:2879”]Hier vielleicht ein anschaulicheres Beispiel - wobei da sogar sehr unterschiedliche Typen miteinander verglichen werden.
[/quote]
… lach … kann ich auch (Vorsicht, alt!):

(merke gerade, dass ich damals “Audacity” noch falsch ausgesprochen habe :flushed:)

Dazu bekam ich folgenden Kommentar:

in 240p ist ein Vergleich nicht möglich, zu stark verändert Youtube den Klang durch schlechte Bitrate in der mp3 Datei. In 720p wird erst der Orginal Sound vom Quell Video benutzt.

Vielleicht sollte ich das mal neu machen… aber ich habe das ohnehin noch mal als Podcast vor, in einer akustisch besseren Umgebung und dann auch im Vergleich mit / ohne Kompression.

Übrigens, ich verstehe diesen RE20-Hype nicht. Warum nicht das günstigere und leistungsstärkere RE320? - Habe ich allerdings noch nicht angesprochen.

Hui, da habe ich ja eine rege Diskussion angestoßen. :slight_smile:

Aber natürlich stimme ich euch zu, dass die Equalizer-Einstellung von Person und Mikro abhängt und für den perfekten Klang im Detail eingestellt werden sollte.

Es geht mir aber um den Fall, wie man den Klang eines Gesprächs optional verbessern kann, wenn sonst kein Equalizer zum Einsatz kommt: Da hoffe ich, dass man den Nutzern ein gemitteltes Preset anbieten kann, das bei vielen Gesprächen eine subjektive Verbesserung darstellt. Daher interessieren mich eure einzelnen Settings, um etwas allgemeineres ableiten zu können.

Das kann natürlich nie perfekt sein, aber eine Option, die die eine oder der andere andere nutzen möchte- entweder als Einstieg zum Equalizing, oder weil es einfach auch so schon reicht.

Es gibt ja einen guten Grund, warum man bei bestimmten Hörlautstärken früher mit der “Loudness”-Taste bei jeder Musik den Sound “verbessert” hat.

Hab mir das Video gerade “angehört”, hab es nicht rausgehört. Hast du >Audacity< oder so geschwollen >Ohdasity< gesagt? Erstes hat dieses Software verdient, das andere klingt zu gut für diese… Software :wink:

[/offtopic]

Bei Transom habe ich mal folgendes gelesen, das irgendwie bei mir hängen geblieben ist:

With human speech, much of the acoustical information
comes to us in vowels and consonants. Vowels tend to fall in the 120 –
140 Hz range, but how we distinguish different vowels at various
pitches, falls around 2,760 Hz, or 2.76 kHz. Consonants reside around
5,630 Hz, or 5.6 kHz. I use EQ to help clarify the vowels and
consonants, a decibel or two, plus or minus, goes a long way at these
frequencies.

In dem Beitrag geht es eigentlich um den Einsatz von Musik. Dementsprechend wird empfohlen, in der Musikspur die genannten Frequenzen abzusenken.

Typically, I put a corresponding set of notch EQ filters with these
same frequencies on the music and duck them down 2 to 6 decibels
(depending on the voice and content of the music). What that allows you
to do is to have the music remain more present; rather than pulling the
entire music track down 2 – 6 decibels, you just pull back the
frequencies that are making it difficult to hear what is being said.

Während er sagt, dass es auf die Art der Musik ankomme, wundert es mich etwas, dass er bei den Stimmen nicht zwischen Männern und Frauen unterscheidet, im Gegenteil sogar so spezifische Frequenzen (5,630 Hz!) angibt.

Ja, das habe ich beim ersten PodÄppler Treff ganz schnell gelernt, dass man das schwarze Schaf ist, wenn man dieses böse böse Audacity nutzt - und die richtige Aussprache habe ich nun mal von einem Mit-Entwickler gelernt.

Ich kenne solche Diskussionen auch aus der Webradioszene, wo Nutzer des SAM Broadcaster mit Headset aber so was von verpönt sein sollen. Ich finde das albern, denn man kann auch mit teurer Soft- und Hardware einfach nur Mist produzieren. Für mich kommt es auf das Ergebnis an, egal, womit es produziert wurde. Wenn es gut und sauber klingt, nehme ich es.

Meinereiner bspw. steht so gar nicht auf Rauschinger und die China-Knochen, aber da fange ich mir in der Podcaster-Szene vermutlich gleich die nächste Watsch’n ein.
Shit happens.

@tomtjes: Ich habe, vermutlich wie Du, Tontechs im Ohr, die zu einer differenzierten Einstellung der parametrischen Mitten zwischen Männlein und Weiblein raten. Zugegeben: Das waren alles Live-Situationen.
Aber auch das sind lediglich Anhaltspunkte und keine verbindlichen Vorgaben. Wäre ja noch schöner, weil ich damit sonst die jeweilige Stimmlage komplett ignorieren würde.

1 „Gefällt mir“

Bei Yamaha hier in der AG serie die sich bei der aktuellen TF serie bedient hat man da - die “universal Waffe” am Start
http://de.yamaha.com/de/products/music-production/interfaces/ag/ag06/?mode=model wie gut das ist muss jeder mal antesten und sich angucken die Software läuft auch ohne Pult und man kann sich das visuell ansehen was die beiden modi machen und mal antesten.
Warum nicht einfach einen 60er-120er RTA auf den PFL legen und die Stimme mal im RTA oder auch als FFT betrachten ?
Von Voxengo gibts da als Freeware den SPAN so wie div andere Tools.
selbst fürs Smartphone gibts da etliches.
Ansonsten ist z.b ein Rode NT5 und ein Sennheiser 935 ein Super Mikrophone für bezahlbares Geld mit wenig Raumanteil bzw die hochwertigen Headsets von Sennheiser und Beyerdynamic.

wer zu Haus auf nimmt baut einfach ein paar Holzrahmen mit 10-20cm Dicke füllt die mit TP50 Akustik Steinwolle und bespannt das mit Stoff und hängt das an der decke oder den Wänden auf und schafft sich so eine akustisch schönere Ecke - kostet wenig sieht gut aus und hilft.

Gute Interfaces gibt es viele Roland UA55, Presonus, Motu, Focusrite, aber auch Behringer XR18 und X32 sind super - moderne Interfaces haben meist weniger latzenz da mehr DSP power und Ram eingebaut ist.

Soweit ist klar, dass die Settings von den Stimmen, Mikros, Aufnahmesituation und gewünschte Atmosphäre abhängig sind.

Ich geb’ es aber nicht auf, dass wir einen General-Fit wie die Loudness-Taste finden können, der für viele eine Verbesserung darstellt, wenn sie sich nicht weiter damit beschäftigen wollen. Und im Gegensatz zur Taste will ich die dynamische Veränderung zum Ausgleich der Fletcher-Munson curves zur Vereinfachung noch außen vor lassen.

Vielleicht müssen wir die Frage nur anders angehen: Welches Ergebnis empfinden wir als angenehm?

Um sich nicht ein Einzelheiten zu verlieren, konzentriere ich mich auf den 5er-EQ mit den Bereichen 0-100Hz, 100-500Hz, 500Hz-2.5kHz, 2.5kHz-4kHz und 4kHz-22kHz- diese Bereiche meine ich auch bei Rob Williams im Hinweis von @Joey wiederzuentdecken.

Ein Verstärken oder Dämpfen in den Bereichen wirkt sich direkt auf die darin enthaltene Schallenergie aus, die gewünschte Verteilung sollte also durch das Verhältnis der Energielevel zueinander charakterisiert werden können.

Ich habe dazu in ospac gestern abend einen Analyzer hinzugefügt, der diese Energieverteilung in aktiven Bereichen eines Kanals bestimmt. (Die Verteilung ist L2-normiert, d.h. die Quadrate der Werte summieren sich auf 1 bzw. der 5-dimensionale Vektor hat die Länge 1. Die Ausgabe multipliziert die Werte mit 100.)

Bei meiner Testdatei im Repository erhalte ich die Verteilung (15,92,23,5,27).

Diese möchte ich nun einer Zielverteilung anpassen- dafür brauche ich einen nicht zu langen und nicht zu kurzen Beispiel-Monolog. Ich habe mir mal die ME002 und ME003 als Vorlage genommen. Das soll jetzt keine Wertung sein- es war nur mein erster Einfall und offensichtlich klingt das anders.

Die Ergebnisse waren zwar zwischen den beiden sehr ähnlich, doch auch überraschend. Hier ein Beispiel (ME002): (30,91,27,3,9). Hier ist also der Bereich 0-100Hz deutlich angehoben, sowie der Bereich 4kHz-22kHz deutlich geringer (evtl. durch den Tiefpass bei der MP3 komprimierten Variante, die ich als Vorlage nahm).

Wenn ich nun per Hand den Equalizer in ospac darauf anpasse (wenn das Verfahren Sinn macht, kann man das ja automatisieren), also in diesem Fall u.a. 0-100Hz anhebe (!) und 4-22kHz senke, erhalten ich meinen Empfinden nach tatsächlich einen angenäherten Klang, der sich nicht künstlich anhört. Der Energievektor lautet jetzt (30,90,27,4,13)- das trifft nicht genau, da ich bei der Analyse nur aktive Passagen berücksichtige, der Equalizer aber auf alles läuft und sich dadurch ändert, was als aktiv erachtet wird und was nicht.

Statt also feste EQ-Settings vorzugeben, könnte es funktionieren, einen Zielvektor zu definieren.

Welche Frauen- und Männerstimmen findet ihr in Monologen gut ausgemischt, die ich mal durch den Analyzer schicken könnte? (Am besten 1-10min Folgen mit nur einer Stimme ohne Musik.) Oder bin ich da auf dem Holzweg?

[quote=“Joey, post:2, topic:2879”]Wichtiges Thema! Oft zerbrechen sich die Leute die Köpfe bei der Mikrofonwahl, obwohl man am Ende kaum einen Unterschied hört. EQ, mit dem man viel mehr herausholen könnte, wird oft vernachlässigt.
[/quote]

Hier muss ich als musikproduzierende Spezies mal reingrätschten: Unter Musikern gibt das SISO-Prinzip (Shit In Shit Out). Sprich: Du kannst das beste Studio-Equipment haben, die beste Masterinsoftware mit den teuersten Filtern und den geilsten EQs. Wenn Du Deine Produktion mit einem Mikrofon aufnimmst, das Du bei Aldi im Dreierpack gekauft hast, wirst Du damit auf keinen grünen Zweig kommen (oder zumindest exorbitanten Aufwand treiben müssen um das wieder gerade zu biegen). Daher ist die Diskussion über Mikrofonierung durchaus berechtigt.
Ein EQ kann nur Frequenzen anheben oder absenken. Wenn eine Frequenz garnicht da ist (weil das billige Mike sie nicht aufgenommen hat), kann sie auch nicht angehoben werden, oder die Aufnahme zerrt in dem Frequenzband.

Wenn man ein halbwegs brauchbares Mikro hat, braucht man imo garnicht sooooo wahnsinnig viel am EQ drehen. Etwas die unteren Frequenzen raus (meist reicht hier schon die -10dB Trittschall-Absenkung am Mikrofon), etwas mehr Mitten bei 4kHz und dann ist gut.

Wenn man da zu stark am Gain Regler des EQs dreht, kann man da eigentlich Dinge nur verschlimmbessern, was ich leider auch bei einigen Podcasts wahrnehme. Ich höre z.B. oft im Auto und gerade da klingen manche Casts eher semi-gut. Da merkt man einfach, dass viele Leute den Mix nur mit dem Kopfhörer machen (was nicht empfehlenswert ist, weil man hier viel Erfahrung braucht).

Ähnlich ist das mit dem Recording. Da nehmen viele mit 16bit oder nur 48kHz (oder gar in MP3) auf und wundern sich, dass man mit dem EQ auch nicht mehr viel reißen kann.

Das stimmt, man sollte aber nicht den Fehler machen, den Mix mit Earpods zu machen. Was auf einer (auch billigen) Abhöre gut klingt, das klingt meistens auch auf dem Kopfhörer ganz passabel. Andersrum aber nicht unbedingt. Kopfhörer haben selten einen linearen Klang, sie neigen dazu, den Sound zu verschönern, insbesondere Bässe und Höhen werden hier oft angehoben, weil es so etwas “fetter” klingt. Was passiert…? Der Kopfhörer gaukelt einem vor, dass der Mix weniger Mitten hat (wichtig für Sprache) und man hebt die Mitten im EQ an. Das Ende vom Lied ist, dass die Aufnahme versaut ist, weil sie zu mittenbetont ist.

Es gibt einen “General-Fit”: Lasst die Finger vom EQ. Das sorgt im Zweifelsfall für einen besseren Sound als wenn da jemand dran rumdeht, der nicht weiß was er tut.

Wir reden hier ja von einer reinen Sprachspur. Da ist das eh unproblematisch. Bei Musikproduktion hast Du da oft Probleme wie z.B. man die Stimme nicht gut hört, weil die E-Gitarre zu prägnant ist und man dann per EQ hervorheben muss. Das Frage stellt sich hier aber garnicht erst. Es erwartet ja auch niemand in einem Podcast die fette komprimierte und hochoptimiert Radio-Stimme.

Und ich glaube, dass viele Podcasts in 16Bit/44KHz/MP3 aufgenommen werden, das verhindert schon von vornherein den Spielraum von EQs.

Gruß, Dave

2 „Gefällt mir“

Dave, SISO hin oder her; 44.1/16 ist kein Lo-Fi. Wir haben hier 96dB Dynamikumfang- kein Mikro wird dies bei der Aufnahme von Sprache erreichen: Theoretisch können Mikros einen verwertbaren Umfang von 130dB (S/N) erreichen, die 24bit (144dB Umfang) rechtfertigen würden- das schaffen sie aber nur theoretisch bei Grenzpegeln um 130dB gegenüber intrinsischem Grundrauschen, und bei Sprache erreichen wir vielleicht maximal mal 100dB SPL. Und praktisch wird jeder den Rauschteppich in der Stille von Gesprächsaufnahmen in 16bit sehen- schon alleine weil die Aufnahme nicht im schalltoten Raum erfolgt und selbst jedes Glied in der Aufnahme Kette, sei es rechts-unten oder nicht, seinen Beitrag dazu leistet.

Ja, in der Musik ist es tatsächlich anders- bei Gesang und Instrumenten oder digitaler Signalerzeugung kann man die Grenzpegel erreichen bzw. hat kein Rauschen, und genau da machen 24bit Sinn. Hier sind wir aber mit effektiven 18bit bei 4-Kanal 16bit objektiv bei der Aufnahme sehr gut aufgestellt. Und die 44.1/48/96/192-Diskussion fangen wir in diesem Anwendungsfeld lieber nicht an, es sei denn du willst ernsthaft einen DCF77-Sender bauen.

Danke für deinen Vorschlag für die Absenkung im tieffrequenten Bereich und Anhebung in den Mitten- darum genau so generelle moderate Anpassungen etwas besser quantifizieren zu können geht es. =)

1 „Gefällt mir“

Ich gebe Dir vom Grundsatz her recht @Sebastian. Wobe, es geht ja nicht nur um Dynamikumfang und Headroom sondern einfach um die Qualität… Wenn ich ein extrem leises Signal (bzw. ein entsprechendes Frequenzband) habe, dann hat das für sich genommen manchmal nur noch eine Auflösung von 7 oder 8 bit, sprich die Kurve wird “eckiger” im krassen Fall würde so aus einem Sinus fast ein Rechteck werden. Dieses Frequenzband bläst man dann mit einem EQ noch auf, wodruch weitere Verzerrungen im Obertonbereich (je nach EQ) entstehen. Da kommen dann zT ziemlich Schweinereien bei raus…

Hier mal verbildlicht…

Ist natürlich extremisiert (4bit Signal) und in der Praxis dürfte man das wenig akustisch wahrnehmen. Man sollte das nur im Hinterkopf behalten, wie ein EQ ein Signal verhackstückelt (und warum es EQs gibt, die mehrere tausend Steine kosten). Darum ist es immer besser ist, ein gutes Ausgangssignal zu haben.
Je eher früher ein Stück Technik in der Signalkette angesiedelt ist, desto mehr Einfluss auf das Ergebnishat es.

Jeder Euro, den man mehr in ein gutes Mike investiert zahlt sich da aus.

Bis auf die 48 kHz Geschichte stimme ich zu. Podcasts mit mehr als 48 kHz zu produzieren halte ich für wenig sinnvoll. Ob nun 16 Bit zu wenig sind, bleibt jedem selbst überlassen.

Ich freu mich bei 24 Bit über das mehr an Dynamik und lasse mehr Headroom bei der Aufnahme.

1 „Gefällt mir“

Wenn jemand in der Aufnahme nur 8bit Samplingtiefe benutzt, dann ist das quasi Nullausschlag auf der Aufnahmehardware. Das ist dann halt garbage in garbage out- aber wer halbwegs mit seinen Geräten umgehen kann, wird auch sinnvoll pegeln. Und dann zeichnen im Anwendungszweck 44.1/16 mehr Genauigkeit auf, als das Mikro liefern kann- sind also mehr als genug. (Und klar reden wir hier über gute Mikros- ich glaube darüber muss man hier im Forum niemanden aufklären.)

Dein Bild macht aber keinen Sinn- man sieht dort das Gibb’sche Phänomen. Da hast du ein Rechtecksignal unzureichend im Frequenzraum abgebildet.

Können wir die Diskussion über Fehlbedienungen, Samplingrate und Bittiefe nicht in einem anderen Thread führen? Solange wir nicht über Musikaufnahmen oder EQ jenseits der 10kHz sprechen, ist die Diskussion hier am Thema vorbei.

Nicht produzieren, das ist natürlich totaler Quark. Aber mit 24bit aufnehmen…

[quote=“Sebastian, post:18, topic:2879”]Wenn jemand in der Aufnahme nur 8bit Samplingtiefe benutzt
[/quote]
Da haben wir uns missverstanden. Ich meinte nicht mit 8Bit aufnehmen… Wenn man mit 16bit aufnimmt und dann eine Frequenz sehr leise ist, diese dann per EQ aufbläst, hat dieses Band eine Qualität von 8bit oder weniger: Daher immer mit maximaller Bitrate aufnehmen und dann runterrechnen.

Wenn das Nutzsignal nur 8bit hat, dann wurde mit -48dB Ausschlag (also nichts) aufgenommen. Wenn du nun versuchst “Bittiefe” auf einem “Frequenzband” zu argumentieren- das ist vom Konzept etwas heikel. Aber selbst wenn man es versucht, so bleibt das inherente Rauschsignal vom Mikro bei (angenommenen) weißem Rauschen auf allen Frequenzen gleich und man gewinnt (bei Sprache) nichts durch höhere Auflösung. Es sei denn man nimmt bei 24bit mit -96dB Ausschlag aus. Äh ja, dann schon.