首页 文章
  • 1 votes
     answers
     views

    VoiceProcessingIO 与 RemoteIO AudioUnit

    我有一个 VoIP 应用程序,它使用 VoiceProcessingIO AudioUnit 进行通话音频。此外,应用程序中还有一个用于按下 DTMF 音调的键盘。当按下按钮时,我写了一个小音调发生器来播放标准声音。 我遇到的问题是: 如果我使用 RemoteIO AudioUnit,AudioUnit 会很快初始化并启动,但有时会在有活动呼叫时停止工作(我假设因为与第二个 VoiceProc...
  • 0 votes
     answers
     views

    在AVAudioEngine中AVAudioPlayerNode输出似乎不是AVAudioUnitNode输入

    我将一个AVAudioPlayerNode附加到AVAudioEngine,定义了一个链接到playerNode的文件 . 我附加了一个链接到我自己的AUAudioUnit的AVAudioUnitNode . 第一次 . 我将playerNode直接连接到mainMixerNode,当我开始播放引擎时,我可以听到链接到播放器的音频文件 . 第二次 . 我将相同的playerNode与audioUn...
  • 0 votes
     answers
     views

    AVAudioEngine离线渲染:仅在连接耳机时静音输出

    我一直在研究一个通过 AVAudioEngine 创建音频管道然后渲染到文件的应用程序 . 我一直在使用this code example的方法,根据自己的需要进行调整 . 问题是如果耳机连接到设备,则输出音频文件是静音的 . 您可以通过连接耳机运行该项目来观察此情况 . 我唯一的想法是,也许iPhone通常有单声道 outputNode ,但耳机给它一个立体声格式 . 我发现这个东西很难调试,所...
  • 0 votes
     answers
     views

    AVAudioSession RemoteIO playAndRecord

    我认为AVAudioSession API自iOS7以来已经发展了很多,并且经常令人困惑 . 我的目标是设置RemoteIO单元,从麦克风录制音频并通过耳机同时播放样本 . 如果没有耳机,则不要播放 . 如果存在蓝牙麦克风,则将其作为首选而不是耳机麦克风或USB麦克风进行拾取 . 如果存在单独的耳机,则通过它回放样本 . 如果相同的蓝牙麦克风也具有耳机功能,那么避免它播放样本,因为它将导致环回造成...
  • 6 votes
     answers
     views

    适用于iOS的AudioUnit Echo取消内置功能

    目前我正在开发一款使用iPad麦克风捕捉声音的iOS应用程序 . 同时,通过iPad扬声器播放声音 . 由于目标是处理隔离的输入声音,因此应删除(取消)扬声器反馈 . 我查找了一些与AudioToolbox可能性相关的文档 . 我发现AudioUnit可以执行回声消除等内置功能 . 但是,我没有设法正确配置我的音频图表以获得成功的性能 . 我将不胜感激任何建议,示例代码,教程参考或推荐的参考书目 ...
  • 12 votes
     answers
     views

    我可以使用AVAudioEngine从文件读取,使用音频单元处理并写入文件,比实时更快吗?

    我正在开发一个iOS应用程序,它使用AVAudioEngine进行各种操作,包括将音频录制到文件,使用音频单元对音频应用效果,以及播放应用效果的音频 . 我使用tap也将输出写入文件 . 完成此操作后,它会在播放音频时实时写入文件 . 是否可以设置AVAudioEngine图形,该图形从文件读取,使用音频单元处理声音,并输出到文件,但比实时更快(即,与硬件可以处理的速度一样快)?用于此的用例是输出...
  • 0 votes
     answers
     views

    有没有办法将语音处理音频单元路由到蓝牙设备?

    我正在做一个需要语音处理io音频单元做一些回声消除工作的应用程序 . 它工作正常,但事实证明,音频输出无法路由到蓝牙设备(它不是免提蓝牙设备,而是蓝牙立体声扬声器) . 以下是我发起音频的方法 AudioComponentDescription desc; desc.componentType = kAudioUnitType_Output; desc.componentSubType = kAu...
  • 4 votes
     answers
     views

    Core Audio中的亚毫秒延迟

    是否可以使用Core Audio播放亚毫秒延迟的声音? 我尝试使用具有不同大小和数量的缓冲区的AudioQueues,并且我尝试使用AudioUnits,但是我无法获得低于30毫秒的延迟 . 我正在使用示波器来测量按下Arduino上的按钮和声音离开音频插孔之间的时间 . Arduino通信永远不会超过1毫秒的延迟 .

热门问题