Das funktioniert bei uns nun mit mehreren Backends, im Moment gibts mal Unterstützung für wit.ai und die Spracherkennung von Google. Die Resultate schauen ganz vielversprechend aus.
Beide Services sind preislich ganz gut, Wit.ai ist sogar vollkommen gratis (keine Ahnung ob das immer so bleibt). Wit.ai liefert vorallem für Deutsch auch ganz brauchbare Ergebnisse.
Kommentiert bitte gerne hier, welche sonstigen Features noch notwendig wären, bzw. was gut funktioniert und was nicht!
Solange ihr nicht wild durcheinander redet funktioniert es ja ganz OK.
Ihr habt natürlich auch sehr viele Namen usw. und sobald ihr durcheinander redet kennt sich da keiner mehr aus (da kann man auf der Auphonic Seite sicher noch einiges verbessern).
Kannst du mal die Google Speech Recognition versuchen? (production einfach bearbeiten und speech recognition ändern)
Dabei kann man einige oft verwendete Eigennahmen usw. als „Word Hints“ angeben - das sollte schon was bringen!
Das ist wirklich ein super Feature von Google!
Würde mich interessieren ob das besser/schlechter ist …
Daran soll es nicht scheitern - hier sind noch ein paar:
Z22kw2eJpS OXaKzEi3EA 7X74tAWo9b wHb8CEt86v rBzr0kdn0Y EuCxKwQVY9 xxaopLG4zK EiwDYD02eA qum07jmHrP mWuyEUrD5w
Naja, wir (Auphonic) segmentieren das Audio ja in unseren Algorithmen, dann schicken wir nur die Segmente der jeweiligen Spuren zu den Spracherkennungsdiensten.
Danach wird das bei uns wieder zusammengesetzt.
Es schaut nach einigen Tests wohl so aus, dass Google teilweise schon viel bessere Ergebnisse liefert. Vorallem wenn die Bedingungen nicht optimal sind.
Ich werd’ die Tage mal was hochladen und testen, wäre ja noch spannend mal Siri daneben zu halten und vor allem (wenn jemand Zugriff drauf hätte!) Dragon!