core-audio

    0热度

    4回答

    我在创建上述格式的描述时遇到了问题,并尝试了许多操作,但在尝试记录时仍然收到无效的参数。 有没有人有如何创建这种格式的例子? var audioFileOutputDescription : AudioStreamBasicDescription = AEAudioStreamBasicDescriptionNonInterleaved16BitStereo audioFileOutp

    0热度

    1回答

    我正在使用CoreAudio低级音频采集API。应用程序目标是MAC OSX,而​​不是iOS。 在测试过程中,我们不时用真实的音频对噪声进行非常烦人的调制。这些现象随着时间而发展,从几乎没有引人注目的地步开始,变得越来越占统治地位。 分析Audacity下的捕获音频表明音频数据包的末尾部分是错误的。 下面是样品图像: 侵入重复每40ms哪个是所配置的分组时间(在缓冲液中的样品计) 更新: 随着时

    0热度

    1回答

    我无法解释iOS中remoteIO audiounit回调的行为。我正在设置一个带有两个回调的remoteIO单元,一个用于输入回调,另一个用于“渲染”回调。我正在按照与this tasty pixel教程中推荐的类似的方式来执行非常类似的remoteIO设置。这是相当长度的设置方法: - (void)setup { AudioUnit ioUnit; AudioComp

    0热度

    2回答

    我最近使用AudioUnits在Mac上设计了一个Sound录音机。它的设计表现就像一个视频安全系统,连续录制,带有用于播放浏览的功率级图形显示。 我注意到每85分钟出现3分钟扭曲。消除一天后,似乎在回调之前发生的声音采集被称为使用循环缓冲区,并且回调的audioUnitRender函数从该缓冲区中提取,但速度稍慢,这最终导致内部缓冲区写入环绕并捕捉用audioUnitRender读取。双工操作测

    4热度

    1回答

    如何以编程方式在Mac OS X中创建多输出设备? 音频MIDI设置程序提供了一个GUI界面来创建一个,但我希望能够在代码中创建一个。 我发现已经有一些资源用于创建聚合设备,但多输出设备的功能不同,我无法找到任何创建它们的东西。下面是我到目前为止有: How to combine multiple audio interfaces by creating an aggregate device U

    1热度

    2回答

    我想直接的iOS VoiceOver的声音耳机,即使它没有插入。 换句话说,而我的应用程序打开时,VoiceOver的声音(和其他声音由我扮演在应用程序中使用AVSpeechUtterance等)不应该去扬声器,但应该从耳机,如果连接。 任何人都可以提出一些建议吗?

    1热度

    1回答

    每当我在制作核心音频应用程序时,特别是通过remoteIO音频单元利用实时音频呈现回调时,我开始运行音频单元引擎无论我通过YouTube或iTunes播放的音乐都是静音的。我必须重新加载YouTube网页或重置我的系统首选项音频设置以恢复声音。有针对这个的解决方法吗?

    1热度

    1回答

    我正在尝试处理使用ExtAudioFile读取的音频数据。但是,当我尝试将这些数据放入循环缓冲区时,我听到几个故障。 在下面的示例代码中,我将数据从“inBuffer”直接传递给“outBuffer”(Michael Tyson的TPCircularBuffer类型)。两个缓冲区的大小都是10 x numberOfFrames * sizeof(float)。客户端流格式为单色浮点采样。 为什么我

    0热度

    4回答

    有没有人有任何代码片段显示如何将M4a文件转换为WAV?我知道有些库可以用其他方式进行转换。 谢谢。

    0热度

    1回答

    我正在实施一个VOIP应用程序,我想在一段时间内使麦克风静音。为了您的信息,我不想停止处理传出音频。我可以如何实现这一目标?