Diese Sache ist mal ein Scherz gewesen, den ich dem Auphonic-Team vor längerer Zeit vorgeschlagen habe. Aber auf den zweiten Blick erscheint das gar nicht so abwegig: Wenn man einzelne Füllphrasen in einer Tonspur markieren würde (je mehr einer Sorte, desto besser), könnte man daraus nicht ein Schema erzeugen, mit dem man im Rest der Tonspur danach suchen könnte? Eine vollautomatische Entfernung wäre zweifellos zu fehleranfällig. Aber die fraglichen Stellen könnten markiert werden und man würde sie durchhören und entweder löschen oder lassen.
Um den üblichen Forumserwiderungen zuvorzukommen: Mir ist bewusst, dass man auch versuchen kann, sich selbst zu professionalisieren und Ähs und Öhs zu reduzieren. Ich frage auch nur für all die Sterblichen, die das vielleicht gerade mal nicht ändern können. Da fällt mir ein: Gibt es zuverlässige und wirksame Methoden, sich so etwas abzutrainieren? Bei mir sind die Ähs oft so unbewusst, dass ich oft denke: “Dieses Mal hast Du endlich mal eine durchgängig brauchbare Folge produziert”. Und dann erkenne ich beim Schnitt, wie viele Ähs drin sind…
Ja, wir haben diesen Feature Request sehr wohl ernsthaft auf unserer Liste
Eine halbautomatisierte Lösung ist bei uns eher schwierig, wenn dann muss das vollautomatisch funktionieren. Da kann es dann natürlich Probleme bei Flaschentscheidungen geben, aber das sollte ein lösbares Problem sein bzw. im Zweifelsfall lasst man die Ähs eher im Audio …
Die Frage ist dann ob man das will bzw. ob es nicht zu sehr den Sprachfluss zerstört.
Die Ähs, die fließend in Worte übergehen, hatte ich auch im Sinn, als ich die halbautomatische Lösung vorschlug. Ein freistehendes Äh lässt sich problemlos rausschneiden. Bei einem “ähich sag mal” fällt es auf, wenn man das äh wegmacht.
Ich habe jetzt doch schon viele Äh’s geschnitten in meinem Leben. Meiner Erfahrung nach hat jeder Mensch sein eigenes Äh-Muster, beileibe nicht alle haben das “schön abgesetzte” äh, das sich automatisch schneiden ließe; oft ist es mit einem vorangehenden- oder nachfolgenden Wortteil verschmolzen, das eine besondere Schneideweise notwendig macht, die sich aber möglicherweise auch automatisieren ließe.
Interessant ist für mich dass ein bestimmter Sprecher meist eine bestimmte äh-Art hat. Automatisch markieren wäre da sicherlich interessant, und ich denke, mit einem Trainingsprogramm (“ist das ein äh”) pro Spur/Sprecher auch möglich. Die andere Sache ist, dass beim Schneiden meist auch die Pause vor und danach betroffen ist, das muss man “spüren”, das macht das noch einen Tick komplexer.
Auch aus meiner Erfahrung zeigt sich, dass sich eine solche Arbeit aus den oben beschriebenen Gründen nicht automatisieren läßt. Allerdings laasen sich eine Großzahl der Ähs achon in der Waveform erkennen und müßten damit eigentlich auch automatisch markierbar sein. Um eine händische Überprüfung und anschließende Bearbeitung (oder nicht) wird man aber nicht herum kommen. Oft ist es besser, den Pegel zu verringern, als die Stelle zu schneiden.
Vielleicht wäre ein solches Markierungstool in Reaper besser aufgehoben, als bei Auphonic.
Die Äh´s können auch Stilmittel sein. Mir ist aufgefallen, das die Äh´s zusammen mit hm´s und einem gelegentlichem Schnalzen Hand in Hand gehen.
Ich finde es beim Hören nicht so schlimm, da ich immer den Eindruck habe, der Sprecher denkt nach. Wenn aber der Eindruck entsteht, das der Sprecher das ganze aus Nervosität macht, dann wird es schnell extrem nervend. War neulich in einem Vortrag und habe dort 35 ähm´s in 90 sek. gezählt. Da war kein Redefluss, aber einen gelegentlichen Hänger im Text der so überspielt wird find ich Ok.
@auphonic Kann man beim entfernen der äh´s nicht auf ein ähnliches System zurückgreifen wie Audacity es beim Rauschentfernen macht ? Ich meine damit das dieser Ton ja ein bestimmtes Frequenzspektrum umfasst. Wenn man “rauschen” entfernt wird das gesamte Spektrum entfernt. Bei äh´s müsste man eben die Frequenzen im Zusammenhang mit der Dauer erkennen und beseitigen. Ich frage mich nur wie das bei mehreren Sprechern geht. Da ist es ja ziemlich schwer eine Referenz zu finden, oder ?
Da bin ich einer Meinung: ich finde Ähs auch nicht so schlimm, außer es ist extreme Nervosität, aber dann hilft leider das Rausfiltern auch nicht viel …
Nein, das würde rein technisch anders funktionieren als Rauschentfernung - diese Technik funktioniert nur für statische Signale.
Ich wunder mich ständig, dass Leute “Ähs” rausschneiden… ich schneide an Podcasts und Radiosendungen gar nicht herum und bisher kam noch niemand an und hat sich beschwert (und ich mache das seit … hm… 5 Jahren?)
Nun, das kommt darauf an. Bei Podcasts im klassischen Sinn ist das uach nicht weiter problematisch. Bei Vortragsaufzeichnungen sind die Ähs ungeübter Sprecher schon manchmal nervig. Und manchmal kommt auch bei einem Podcast durch eine Ansammlung von Stammeln und Ähs rüber, dass der Sprechende eigentlich gar nicht so recht vorbereitet ist.
So, ich habe heute für eine 1:10 Episode ungefähr 4 Stunden ausnahmsweise Ähs geschnitten und so Zeug. Radiobezahlqualität. Natürlich ist das super hörbar jetzt, aber ich gehe mal davon aus, dass es bei 30 Podcastepisoden in Summe und a la long zeitlich günstiger ist, ein Anti-Äh-Training zu machen. Für den Gast auch. Ächz.
Hier zeigt sich aber das Problem bei Video. DIe “ems” zu reduzieren bringt nicht viel, weil immer noch die Mundbewegung da ist und der Zuschauer was vermissen wird. Und das Bild schneiden geht auch nicht, weil in der Großaufnahme das GEsicht springen würde und bei den vielen notwendigen Schnitten der Film unansehnlich würde. Ich wäre bei YouTube eher für eine “ÄHM”-Warnflagge. Das System analysiert automatisch, wie viele dieser Laute im Video sind und schaltet bei der Überschreitung einer noch erträglichen Grenze ein Warnschild vor das Video.