我正在尝试编写一个音乐应用程序,其中检测音高是其中的核心 . 我已经看到了这个问题的解决方案以及AppStore上的应用程序 . 然而,他们中的大多数都很过时,我想这样做是Swift . 我一直在寻找AVAudioEngine作为一种方法来做到这一点,但我发现文档缺乏或者说我看起来不够努力 .
我发现我可以像这样点击inputNode总线:
self.audioEngine = AVAudioEngine()
self.audioInputNode = self.audioEngine.inputNode!
self.audioInputNode.installTapOnBus(0, bufferSize:256, format: audioInputNode.outputFormatForBus(0), block: {(buffer, time) in
self.analyzeBuffer(buffer)
})
总线每秒轻敲2-3次,缓冲区每个水龙头包含超过16000个浮点数 . 这些振幅样本来自麦克风吗?
文档至少声称它是从节点输出的:“缓冲区参数是从AVAudioNode输出捕获的音频缓冲区 . ”
是否可以使用AVAudioEngine实时检测音高,还是应该采用另一种方式?
2 回答
这里有一些不同的概念 . AVAudioEngine只是为您提供原始PCM数据的引擎,您可以直接使用Novocaine,Core-Audio或其他选项 .
PCM数据是来自麦克风的浮点样本 .
就音高跟踪而言,有各种技术 . 需要注意的一点是频率检测与音调检测不同 .
FFT哪个好,但无法检测缺少基本原理的信号的音高 . 您需要通过低通滤波器运行信号,以减少可能的频率混叠,然后将其传递给FFT之前的Nyquist Frequency然后window,这是为了减少spectral leakage . FFT将输出一系列区间内的频谱内容,具有最高值的区间被认为是信号中最强的频率 .
Autocorrelation可以提供更好的结果 . 它基本上是与自身相关的信号 .
最后,根据您想要检测的内容,需要考虑一些注意事项 . 像男声和某些乐器之类的东西可以通过在未经过预处理的缓冲器上运行的普通FFT来提供不正确的结果 .
检查一下PITCH DETECTION METHODS REVIEW
就Swift而言,它不适合实时,以性能为中心的系统 . 你可以查看old benchmarks of Swift vs C++
我意识到Hellium3确实给了我关于什么音调的信息,以及用Swift做这些事情是个好主意 .
我的问题最初是关于是否点击PCM总线是从麦克风获取输入信号的方法 .
自从提出这个问题以来,我就是这样做的 . 使用通过点击PCM总线获得的数据并分析缓冲区窗口 .
它工作得非常好,而且我对PCM总线,缓冲区和采样频率的理解不足以让我首先提出这个问题 .
知道这三个就更容易看出这是正确的 .
编辑:根据需要,我将粘贴PitchDetector的我(已弃用)实现 .
所有这些都归功于Philip McLeod,他的研究用于我上面的实现 . http://www.cs.otago.ac.nz/research/publications/oucs-2008-03.pdf