avaudiopcmbuffer

    1热度

    1回答

    我已经实现了installTap方法,它为我提供了音频缓冲浮点采样。我用C++ DSP库过滤了它们。我想将这个缓冲区“发送”到耳机/扬声器。我再次从样本中做了AVAudioPCMBuffer。任何人都知道如何做到这一点? 代码: node.installTap(onBus: bus, bufferSize: AVAudioFrameCount(BUFFER_SIZE), format: node.

    3热度

    1回答

    我试图使用AVAudioEngine播放AVAudioFile。代码很大程度上取自Apple Developer在线视频,但没有播放。已经花了一些时间去讨论论坛,但似乎没有任何亮点。 我有两种方法。第一个调用标准的打开文件对话框,打开音频文件,分配一个AVAudioBuffer对象(我将在以后使用),并用音频数据填充它。第二个设置AVAudioEngine和AVAudioPlayerNode对象,

    0热度

    1回答

    下面的代码工作对我所有的设备(iPhone,Apple关注,模拟器)持续时间短的音频文件: let file = try! AVAudioFile(forReading: url!) let format = AVAudioFormat(commonFormat: .pcmFormatFloat32, sampleRate: file.fileFormat.sampleRate, channels

    0热度

    1回答

    我已经成功地使用AVAudioPlayerNode发挥立体声和单声道文件。我想在一个非线性的方式使用的文件有3个以上的通道(环绕声文件),并能够将音频传送。例如,我可以文件通道0分配给输出信道2,和文件通道4,以输出通道1 的音频接口的输出的数量将是未知的(2-40),这就是为什么我需要要能够让用户将音频路由,因为他们认为合适的。而在具有用户更改路由在音频MIDI设置的WWDC 2015 507的

    0热度

    1回答

    我一直试图在我的SpriteKit游戏中播放音乐,并使用AVAudioPlayerNode类来通过AVAudioPCMBuffer s来播放音乐。每次我导出我的OS X项目时,它都会崩溃,并给我一个关于音频播放的错误。在过去的24小时内,我的头撞墙后,我决定重新观看WWDC session 501(见54:17)。我对此问题的解决方案是演示者使用的方法,即将缓冲区的帧分成更小的片段以分解正在读取的

    5热度

    2回答

    我无法用AVAudioPCMBuffer播放声音(虽然我可以用AVAudioFile播放)。 我得到这个错误。 错误: AVAudioBuffer.mm:169: - [AVAudioPCMBuffer initWithPCMFormat:frameCapacity:]:需要的条件是假的:isCommonFormat 这里是我下面的代码,我会很感激你的帮忙。 import UIKit impor

    0热度

    1回答

    我正在使用AVAudioPCMBuffer在简单的游戏中播放.wav文件。然而,在检查它的文档时,我遇到了另外两种其他类型的缓冲区,我从来没有在其他任何地方看到过,这些缓冲区是标题中的:AVAudioBuffer和AVAudioCompressedBuffer。 我的问题是,我应该使用哪一个,为什么?我试图找出其他两个,但我找不到一个例子。任何帮助,将不胜感激!

    1热度

    1回答

    我真的要疯了傻,显然简单的问题...... 我有一个Data转换为AVAudioPCMBuffer。 寻找this question它似乎很容易,但一切都随着Swift 3而改变。这种不断变化的诅咒语言(遗憾的是爆发)! 我的代码 let audioBuffer = AVAudioPCMBuffer(pcmFormat: audioFormat!, frameCapacity: UInt32(da