#subscribe8: Spracherkennung für Podcasts

In Auphonic und Podigee
Vortrag: https://frab.das-sendezentrum.de/de/subscribe8/public/events/283

Die Diskussionsrunde zum Vortrag
Workshop: https://frab.das-sendezentrum.de/de/subscribe8/public/events/369

Referenten: @auphonic & @ben.podigee

Zurück zur #sub8-Dokuseite

Unterschiedliche Zielsetzung

  • Transkript
  • Suche

Für Durchsuchbarkeit muss das Transkript nicht fehlerfrei sein. Beispielsweise Grammatik der gesprochenen Sprache und Interpunktion. Dennoch locker 80-90 Prozent richtig erkannt.

@Auphonic zeigt Beispiele

https://auphonic.com/media/audio-examples/speechrec/CommonSense309_10min.html

https://auphonic.com/media/audio-examples/speechrec/DLFNachrichten15102016.html

Google Cloud Speech API ist etwas besser als wit.AI.

Google und wit.ai

  • Google akzeptiert bereitgestellte Keywords. Auphonic übernimmt das Übermitteln der Keywords aus Description und Chapter Marks.
  • wit.ai lässt sich über das Web-Interface trainieren.

Gleichzeitiges Sprechen funktioniert wirklich schlecht.

Der Podigee-Web-Player ermöglicht die Einbettung des Transkripts inklusive Suchfunktion. Podigee bietet auch einen Transkript-Editor an.

1 „Gefällt mir“