首页 文章

在android中使用webrtc中的噪声抑制模块

提问于
浏览
3

我正在android中开发一个Speaker Identification应用程序,我想在使用扬声器识别算法进行分析之前处理来自麦克风的音频输入 . 我遇到了 noise suppression module in WebRTC . 我已经使用JNI在android中设置了它 .

我对模块中的函数 WebRtcNs_Process 有疑问 . 在头文件中,它表示 int WebRtcNs_Process (NsHandle * NS_inst,short * spframe,short * spframe_H,short * outframe,short * outframe_H);

根据头文件,
spframe :指向 L band 的语音帧缓冲区
spframe_H :指向 H band 的语音帧缓冲区
outframe :指向 L band 的输出帧的指针
outframe_H :指向 H band 的输出帧的指针

有谁知道这些论点所指的是什么?又什么 L bandH band ? L波段的语音帧缓冲区与H波段的语音帧缓冲区有什么区别?

谢谢!!

1 回答

  • 2

    对于那些遇到这个问题的人来说,如果你看一下WebRTC中的audio_processing模块,你会发现它只对super-wb进行频段分割,即32kHz采样率 .

    因此,如果您使用8kHz或16kHz采样率,则可以将spframe_H和outframe_H设置为NULL,并将spframe和outframe设置为原始音频数据 . 如果你使用32kHz,那么你需要做波段分裂为here

相关问题