ähm-Erkennung durch Deep Learning


#1

Ich habe grade auf BoingBoing einen interessanten Artikel über “ähm”-Erkennung durch Deep Learning gelesen. Das Programm kann man auch selber ausprobieren. Habe ich noch nicht gemacht, weil ich Code-Analphabet bin, aber vielleicht kann jemand von euch damit rumspielen.
Cool wäre natürlich eine Integration in Ultraschall :smiley:
I ,for one, welcome our new machine podcast lords


#2

Wäre das nicht ein cooles Feature für Ultraschall 4.0, @rstockm? Weiß nicht, wie realistisch es umzusetzen wäre, vllt. kann man sich an der Stelle von @auphonic beraten lassen?


#3

Ist schwierig. Nicht unbedingt technisch, das könnte evtl irgendwie machbar sein(habs mir aber nicht angeschaut).
Vielmehr ist das Problem, dass Ähs durchaus wichtig sind in Podcasts. Speziell, wenn man ohne Manuskript arbeitet(Laberpodcasts z.B.) und Gedanken sich spontan entwickeln, oftmals also nicht sprachlich perfekt ausgereift sind, helfen die Ähs beim Hören den Faden zu halten.
Es sind halt kurze Pausen, in denen man das eben Gehörte etwas sacken lassen kann und das ist nicht zu unterschätzen.

Klingt komisch, is aber so :wink:


#4

In dem Zusammenhang ganz cool:

Editieren 2.0 würde ich mal sagen…
LG
Jens