Google Speech to Text documentation建议使用100毫秒的帧大小来最小化延迟 .
任何框架尺寸都可以接受 . 较大的帧更有效,但增加了延迟 . 建议使用100毫秒的帧大小作为延迟和效率之间的良好折衷 .
- 最佳实践
但是,我不知道框架尺寸是多少 . 帧大小是否与AudioBuffer.length相同?
Google Speech to Text documentation建议使用100毫秒的帧大小来最小化延迟 .
任何框架尺寸都可以接受 . 较大的帧更有效,但增加了延迟 . 建议使用100毫秒的帧大小作为延迟和效率之间的良好折衷 .
但是,我不知道框架尺寸是多少 . 帧大小是否与AudioBuffer.length相同?
1 回答
这些帧是
StreamingRecognizeRequest
消息的块,可以包含两个字段之一:streaming_config
和audio_content
. 第一个StreamingRecognizeRequest
消息将仅发送streaming_config,之后所有后续消息将发送audio_content .您可以在this和this文档中找到更多详细信息 .