audio-recording

    2热度

    1回答

    我正在使用Codename One录制麦克风输入并将其播放回已连接的耳机。 首先,如果我从麦克风将音频录制到文件,并在录制结束时播放它,它会按预期工作。这就是为什么基于这个2014 question我实现了2个周期性任务(定时器和时间任务),只要2个文件:一个用于记录,一个用于播放。我将周期性任务周期设置为100 ms和几秒之间的值,但在Android设备上的结果非常糟糕。确实存在着随机差距,这根

    4热度

    2回答

    我只是搜索Android的第3库 做: - 合成 - 振荡器,物理模型,生成音频 回放 - 音频文件,排序,抽样 影响 - 处理声音 过滤器 - 频率范围修改 分析 - 沥青和响度检测,FFT频谱分析 我发现它在iOS的调用AudioKit https://github.com/audiokit/AudioKit ,但可以在发现一些像这样的事情在Android中 谢谢

    1热度

    1回答

    我正在使用ExtAudioFileCreateWithURL,并且在创建立体声LPCM Float32 Wave文件时始终得到运行时kAudioFileUnsupportedDataFormatError错误。我坚持使用单声道(单声道)文件也可以正常工作。任何提示? 下面的代码片段: let audioType: AudioFileTypeID = kAudioFileWAVEType var

    0热度

    1回答

    我试图从我连接到Android主板的麦克风捕获音频。为此,我通过ADB使用tinycap。我想创建10秒长的音频文件。 当我运行下面的命令:手动 tinycap sdcard/testadudio.wav 和CTRL + C,它生成一个音频文件,并且捕获的音频。随着命令: timeout 10s tinycap sdcard/testadudio.wav 它生成一个破碎的音频文件,没有音频

    0热度

    1回答

    我想录制网络上的音频(Record-Pause/Resume-Stop)。我试过MediaRecorder API,但它仍然不兼容IE和safari等所有浏览器。尽管它支持firefox和chrome,但是Chrome上的不同行为(作品完美)和firefox(发布了另一个问题here)。我可以使用闪光灯,但如果没有HTML5或JS的可能性,这将是最后的选择。有没有任何开源的JS插件或库来实现这一目

    0热度

    1回答

    我正在创建一个音频录制框架,它被正确编译。当我在一个项目中使用这个框架时,录制文件将在框架中指定的文档文件夹中创建,但它的大小保持在4KB,并且不会增加,并且文件中没有音频。我给了30秒的记录时间。我已经使用AVFoundation进行录音,如果我直接在我的项目中使用AVFoundation,但是通过自定义创建的框架调用代码不起作用,那么代码将起作用。 public func startRecor

    1热度

    1回答

    我开发基于声音和视频记录的Android应用。我希望在预览和捕捉视频和声音时实时播放耳机中的麦克风音频。 我现在有,精细单独工作: 1)使用超能力库进行录音和播放回实时(预览和录制期间)。在场景后面,它通过将缓冲区推送到输出端(耳机)来直接与C++的AudioRecord工作。目标是实时应用原声音频效果。 2)捕获视频与mediaRecorder 当音频播放运行时,我尝试推出视频记录,它开始崩溃:

    1热度

    1回答

    是否有可能在Android中捕捉扬声器输出? 这将用于确定在聆听麦克风输入时哪些声音是从其他应用程序产生的以及哪些声音来自用户。 这实质上是在其他应用程序的输出上创建声音消除滤波器,因此它们的声音不会干扰麦克风输入。

    0热度

    1回答

    我正在使用Windows 10通用应用程序中的音频录制,我发现代码here当我运行该代码时,它显示“找不到合适的变换来编码或解码内容“错误,在手机中任何一个请帮我解决这个问题。

    2热度

    2回答

    所以我认为我很了解getFloatFrequencyData。如果getFloatFrequencyData返回一个包含1024个值的数组,则每个值代表一个频点/范围的音量。在采样率为44.1的1024个值的情况下,每个值将表示大约20赫兹的频率范围的音量。 现在怎么办getFloatTimeDomainData?假设我有2048个值,每个值代表什么? 与understanding getByte