audioqueue

    2热度

    1回答

    我想不通,为什么下面的回报OSStatus -10851: status = AudioUnitSetProperty(*audioUnit, kAudioUnitProperty_StreamFormat, kAudioUnitScope_Output, kInputBus, &outFormat, sizeof(o

    1热度

    2回答

    我正在使用AudioQueue来传送一些歌曲,我的问题是如何告诉已排队的缓冲区播放的长度?我想一次流两秒的数据,我遇到的问题是我怎么知道有多少字节实际上对应于两秒钟的音乐(所以我总是可以提前两秒钟)。 感谢 丹尼尔

    0热度

    1回答

    在我的应用程序中,我将通过线性PCM格式的套接字接收音频数据,时间间隔统一,约为50 ms, 我使用AudioQueue播放音频数据我称为最从AudioQueue SpeakHere实施例的代码唯一的区别是我需要在Mac OS运行它的, 以下是相关的一段代码, 设置AudioBufferDescription格式, FillOutASBDForLPCM (sRecordFormat,

    0热度

    1回答

    在我的申请,我将获得从Socket缓冲区,需要发挥它,应用程序将在大约每50毫秒接收缓冲区, 的方式我在做什么如下, 1 - 定义音频格式,它是如下面给出的, FillOutASBDForLPCM (sRecordFormat, 16000, 1, 16, 16, false, false

    2热度

    1回答

    我在我的应用程序中使用音频队列服务。当分配的缓冲区,我设置缓冲区的大小为30000个样品: AudioQueueAllocateBuffer(mQueue, 30000, &mBuffers[i]); 但回调的后续调用与以下inNumberPacketDescriptions由: 30000 30000 30000 26928 30000 30000 他们并不总是等于到30000

    1热度

    2回答

    我试图完成基本如下: 打开一个文件,确定我会用多少个“样品”需要根据其持续时间 将文件分成X个抽样;确定每个样品的(平均)功率水平/幅度。 利用这些样本值,继续绘制表示音频的波形(以下these guidelines,也许) 我花了三天左右,通过网上论坛,书籍和API与无济于事精心搜索。我被困在最关键的一步 - >确定音频块(缓冲区)的功率电平。 在阅读了大部分即将推出的Core Audio bo

    6热度

    3回答

    如果任何人有使用AudioQueue编码/解码Speex音频格式的经验? 我试图通过编辑SpeakHere示例来实现它。但不成功! 从apple API文档中,AudioQueue可以支持编解码器,但我找不到任何示例。任何人都可以给我一些建议吗?我已经在苹果的示例代码的XCode 4

    2热度

    1回答

    我正在做一种voip应用程序,所以我必须能够同时播放和录制声音。 但是,当我在同一时间播放和录制时,iphone的音量非常低。 我用 //kAudio UInt32 audioCategory = kAudioSessionCategory_PlayAndRecord; AudioSessionSetProperty(kAudioSessionProperty_Overri

    2热度

    1回答

    我一直在使用AVAudioRecorder在iPhone上录制音频,但该文件太大而无法上传到EDGE网络上的服务器。我发现,如果我可以将音频压缩为AMR格式,与原始PCM音频文件相比,音量会大大降低。 我发现一个AMR编码&解码库(3GPP AMR浮点语音编解码器)用纯C编写。我现在可以使用这个库将WAVE转换为AMR,但是编码过程在iPhone上过长。我必须等待22秒才能对1分钟的Wave文件进

    2热度

    1回答

    我使用AudioQueue从任意源流式传输音频(该类基本上只需要一个提供数据包的代理),我创建了一个包装所有功能的类,让我们调用AudioQueueClass,我正在使用这个班级播放许多歌曲,在每首歌曲之间发布我的课程并创建一个新的AudioQueueClass实例以播放下一首歌曲,我看到两个问题,我无法找到原因,可能有些人已经遇到了这些问题,并可以揭示它 1-现在每个和AudioQueue播放前