我最近开始为Windows UWP开发,但知道我一直坚持语音识别 . 根据文件:https://docs.microsoft.com/en-us/windows/uwp/input-and-devices/speech-recognition .

自定义识别用户界面当您的应用程序通过调用SpeechRecognizer.RecognizeWithUIAsync尝试语音识别时,将按以下顺序显示多个屏幕 . 如果您正在使用基于预定义语法(听写或网络搜索)的约束:听力屏幕思维屏幕听到您说屏幕

这是我的代码:

var language = new Windows.Globalization.Language("es-ES");

var recognizer = new SpeechRecognizer(language);

await recognizer.CompileConstraintsAsync();

Windows.Media.SpeechRecognition.SpeechRecognitionResult speechRecognitionResult = 
                                    await recognizer.RecognizeWithUIAsync();

var messageDialog = new Windows.UI.Popups.MessageDialog(speechRecognitionResult.Text, 
                                   "Escuchado:");

await messageDialog.ShowAsync();

我正在使用RecognizeWithUIAsync(),因为我的应用程序是一个桌面应用程序,但我不想要“听到你说”屏幕,因为它使用系统TTS将语音文本转换为语音,我的意思是,这是乏味的 . ¿有没有办法只保留听力和思维屏幕?