我正在尝试使用Microsoft进程内语音识别引擎编写应用程序 . 我的应用程序有时使用听写语法,有时使用SRGS . 显然,我使用SRGS时没有任何问题 .
即使我使用最好的麦克风之一(Sennheiser ME3和Andrea usb声卡),识别结果还远远不能被接受 . 我的应用程序在特定域中运行,有一些单词和短语更有可能被系统用户说出 . 我的问题是,有没有办法使用听写语法,同时在应用领域中指定重要的单词 . 它是一种部分修改语音识别器的语言模型,仅用于开发者提供的单词和短语列表 .
有几种选择 .
如果您有一组不常用的单词,可以使用ISpLexicon界面添加单词(或使用Windows Speech Recognition Speech Dictionary) .
听写识别通过上下文得到显着改善 . 您应该在更新识别时(以及当用户更改插入位置时)调用SetDictationContext .
最后,您可以使用Dictation Resource Kit来定义新的听写语法 . 这只是最后的手段,因为这是一个非常复杂的过程 .
1 回答
有几种选择 .
如果您有一组不常用的单词,可以使用ISpLexicon界面添加单词(或使用Windows Speech Recognition Speech Dictionary) .
听写识别通过上下文得到显着改善 . 您应该在更新识别时(以及当用户更改插入位置时)调用SetDictationContext .
最后,您可以使用Dictation Resource Kit来定义新的听写语法 . 这只是最后的手段,因为这是一个非常复杂的过程 .