audio-processing

    9热度

    1回答

    我想使用bash脚本将audio.mp3音轨添加到无声的video.mp4文件中,“cvlc”的正确语法是什么? “”ffmpeg“命令行? 我用VLC和--no-audio选项录制了视频,因此没有可以从原始视频复制的比特率或编码等设置。

    1热度

    2回答

    我试图找到字与字之间的间隔时间在几个MP3(音频文件) 在进一步深入之前,让我对我的音频文件,如下解释: 我问我的受试者产生尽可能多的动物名称尽可能60秒。我记录了他们的演讲。 因此,所有的mp3文件都是动物名称的序列。通过只输入(也就是说,不是连续一句) 首先,我读的文件之一,并作出图: plot(data); 图为如下: 我觉得有些地方最大值是动物命名的候选人。但是,我无法弄清楚并得到动物

    0热度

    1回答

    我目前在环境声音分类方面存在问题。我想使用音频分类来检测特定类型的聚焦声音(这确实是非常不同的,并且很容易被人耳区分出来)。但是还有其他类型的可能发生的声音对我来说并不重要,即我所需要的只是不将它们归类为我的“特定类型的合成声音”。 我正在尝试使用GMM & LFCC来做分类。一种GMM模型由所有LFCC从这种类型的隐蔽声音训练而来,并为所有其他LFCC(来自某些非碰撞环境声音或来自我不想要的某种

    2热度

    1回答

    我试图用狄拉克3 LE库伸展音频在XCode项目,一切工作就像一个魅力,除了这个方法: - (NSTimeInterval) currentTime; 在DiracAudioPlayerBase.h中。该方法应该返回音频文件中的当前位置(根据文档)。 但是对于我来说,不管音频文件播放多长时间,这个总是返回0。当我查看包含的演示时,情况也是如此。有没有人有同样的问题?我希望任何人都可以帮助我。

    0热度

    1回答

    我试图从使用Web Audio API瞬时(不是实时)从URL加载的声音中提取振幅信息,这可能需要OfflineAudioContext。我希望沿着包含声音振幅的阵列获取某些东西,每隔t秒,持续声音的时间(大小取决于声音的持续时间,除以t)。不幸的是,目前文档很少,我不确定如何继续。如何加载声音并每隔t秒提取振幅?

    0热度

    1回答

    有没有办法提取元素的AudioBuffer进行分析?如果可能的话,我想避免处理使用XMLHttpRequest时出现的跨源问题。

    0热度

    1回答

    我正在尝试制作一个Java声音可视化器,但是我绝对不知道如何从提取的音频中获取字节,紧接着它们被实时处理后。我可以将程序与wav文件同步,但这不是我想要做的,我想用程序生成声音,然后播放它,而不是将它保存到任何地方。 感谢您的帮助!

    1热度

    2回答

    我需要关于这个想法的一些建议,我曾经为UNI项目提供过一些建议。 我想知道是否有可能将音频文件从不同的音频源分成不同的“流”。 例如,将音频文件拆分为:发动机噪音,火车噪音,语音,所有时间不存在的不同声音等。 我不一定需要用编程语言来做这件事(尽管它会是理想的),但也可以通过使用Sound Forge等声音处理软件进行手动操作。不过,我需要知道这是否可能。我对声音处理一无所知。 第一阶段完成后(分

    0热度

    2回答

    我有以下的方法,收集来自IMediaSample PCM数据转换成float型的FFT: public int PCMDataCB(IntPtr Buffer, int Length, ref TDSStream Stream, out float[] singleChannel) { int numSamples = Length/(Stream.Bits/8);

    2热度

    1回答

    我一直在努力调整记录一段音频的从代码之后的间距: http://developer.android.com/guide/topics/media/audio-capture.html 我的猜测是,这个调整应该与实现MediaRecorder。 http://developer.android.com/reference/android/media/MediaRecorder.html 不过,我不能