audioqueue

    1热度

    2回答

    我目前通过AudioQueues播放音频。我想让用户连接到Airplay设备。 如果我创建一个MPVolumeView并使用'showsRouteButton'来显示路径按钮,我可以成功连接。 有没有办法将音频路由更改为Airplay而不使用MPVolumeView?还是更简单的苹果视图,只是路由按钮?

    0热度

    1回答

    这是我的用于使用音频队列生成噪声码: http://pastebin.com/Kn8GU72J 的问题是,我的代码生成EXC_BAD_ACCESS。该问题似乎在分配 MAAudioManager *audioMngr = (__bridge MAAudioManager *) inUserData; 在回调例程中。 我怀疑这可能与MAAudioManager类的线程访问有关。 有什么想法?

    3热度

    2回答

    根据我的理解,音频队列服务是比使用音频单元的音频单元更高级别的API。 OpenAL也使用音频单元。所以音频单元是iOS中最低级别的音频API。 我需要录制声音,然后将自定义过滤器应用到音频流并播放。音频队列服务似乎很适合录制,而且它们也可以用于播放。但我仍然不确定他们是否允许将自己的算法应用于音频流,就像AURemoteIO音频单元一样。

    12热度

    2回答

    我正在努力将音频导入iPhone,并将其传递给(C++)分析算法。当然,还有很多选项:AudioQueue教程at trailsinthesand让事情开始。 音频回调,但是,给出了一个AudioQueueRef,我发现Apple的文档在这方面很薄。内置的方法来写入文件,但没有什么地方你实际上在数据包内部查看数据。 我需要数据。我不想写任何文件,这是所有教程 - 甚至苹果的便利I/O对象 - 似乎

    0热度

    1回答

    我需要实现我的应用程序的代码来缓冲和播放我正在流式传输的音频文件。 我得到了一个选项AudioQueue,但没有找到太多的代码来理解要实现的东西。 我尝试过简单地创造流光和摧毁流光。 -(void)destroyStreamer { if(streamer) [streamer stop]; } -(void)createStreamer { if(str

    1热度

    1回答

    我的应用使用ffmpeg来解析mms streaming缓冲区,并使用音频队列来播放缓冲数据。现在我可以确认缓冲数据是好的,但我无法播放它。打球的结构是基于AudioFileStreamExample演示的客户端,它可以起到HTTP流(AudioFileStreamExample演示的服务器)。我注意到在回调函数: void MyPacketsProc(void *inClientData, UI

    2热度

    1回答

    如何在AudioQueue中使用AudioQueueRef设置音量? 我已经referef许多问题在计算器上对此但是所有的人都使用AudioQueueRef对象。 有没有可能这样做,而不使用AudioQueueRef? 请建议 谢谢。

    1热度

    1回答

    我正在努力研究如何将数据从缓冲区传递到数组,以允许我显示缓冲区中的内容。有没有代码的地方是一个简单的记录音频和读取缓冲区的例子?越简单越好。 我试图做一些实时的事情,而不是从保存的文件中读取数据。我可以粘贴一些我尝试过但没有成功的代码。

    0热度

    1回答

    我在追加额外记录后播放音频数据时出现问题。这里是事件的一般顺序,但不返回任何错误: AudioQueueNewInput // Start audio queue AudioFileCreateWithURL // Create audio file AudioFileSetProperty // Set magic cookie AudioQueueAllocateBuffer //

    1热度

    1回答

    我正在使用录音机并使用SpeakHere示例代码中的AQRecorder。我想在UI上添加一个滑块来显示录制时间。我在录制开始时使用初始化的简单定时器来完成此操作。但有时录音滞后1秒。例如,滑块显示10秒,但保存时音频的实际持续时间为9秒。 有没有什么办法让我可以在录制更新滑块时获得精确的持续时间,而不是使用计时器。 我尝试以下方法也 NSTimeInterval AQRecorder::GetT