我最近开始为Windows UWP开发,但知道我一直坚持语音识别 . 根据文件:https://docs.microsoft.com/en-us/windows/uwp/input-and-devices/speech-recognition .
自定义识别用户界面当您的应用程序通过调用SpeechRecognizer.RecognizeWithUIAsync尝试语音识别时,将按以下顺序显示多个屏幕 . 如果您正在使用基于预定义语法(听写或网络搜索)的约束:听力屏幕思维屏幕听到您说屏幕
这是我的代码:
var language = new Windows.Globalization.Language("es-ES");
var recognizer = new SpeechRecognizer(language);
await recognizer.CompileConstraintsAsync();
Windows.Media.SpeechRecognition.SpeechRecognitionResult speechRecognitionResult =
await recognizer.RecognizeWithUIAsync();
var messageDialog = new Windows.UI.Popups.MessageDialog(speechRecognitionResult.Text,
"Escuchado:");
await messageDialog.ShowAsync();
我正在使用RecognizeWithUIAsync(),因为我的应用程序是一个桌面应用程序,但我不想要“听到你说”屏幕,因为它使用系统TTS将语音文本转换为语音,我的意思是,这是乏味的 . ¿有没有办法只保留听力和思维屏幕?