audio-processing

    -2热度

    1回答

    我正在尝试对歌曲进行基于流派的分类。 我已经提取了一首歌曲的音频特征(MFCC,Pitch和Rhythm)。 我通过每个特征训练了三种模型(ANN,SVM,SVM)。三种模式给出三种输出(歌曲的流派)。 如何分析三个模型的输出以便我只能得到一个结果?

    1热度

    1回答

    是否可以使用SuperpoweredDecoder获取.wav文件的频道数量?我需要这些信息用于在android上使用超级sdk对.wav文件进行脱机处理。 在此先感谢!

    0热度

    1回答

    我正在构建一个区域语言的android应用程序(印地文)与文本到语音支持。 Android只有女性的声音印地文tts。我也需要一个男性的声音。 是否有无论如何我可以将TTS的声音输出路由到我的应用中的某些音频处理器,并更改音频的某些属性使其听起来像男性,然后通过扬声器发出声音? 只更改音高并不能帮助。因此需要更明确的处理。

    1热度

    3回答

    像蓝牙这样的无线连接受限于传输带宽,导致比特率和音频采样频率有限。 可以通过将两个独立的24bit/48khz音频流组合成24bit/96khz这样的高清晰度音频输出,从源端发送到接收器扬声器/耳机。 我试图理解一个DSP(数字信号处理器)是如何工作的,但我无法找到解释这种音频分割和重新合成技术,以提高音频分辨率

    1热度

    1回答

    鉴于22 mins (1320 secs)一个音频文件,通过Librosa data = librosa.feature.mfcc(y=None, sr=22050, S=None, n_mfcc=20, **kwargs) data.shape提取MFCC特征 (20,56829) 它返回的20个MFCC特征numpy的阵列56829帧。 我的问题是如何计算56829.有没有任何计算来实现这个框

    1热度

    1回答

    这是我的第一篇文章。播放过程中是否可以改变播放速度?我想模拟汽车发动机的声音,为此,第一步是根据发动机的转速改变环状样品的速度。我知道如何通过改变波形文件的速率来增加使用pyaudio的完整样本的速度,但我想要不断改变速度。这可能没有使用scikits.samplerate包,它允许重新采样(并且是相当古老的)或pysonic,这是超级? 这是我的时刻: import pygame, sys i

    1热度

    1回答

    经过大量的研究,我找不到明确的答案。我想要实现的是:拍摄一个mp3/wav文件并将其左右声道保存为2个字节[]。然后我可以操纵每个通道,然后再添加它们并创建一个新的wav文件。 (最好是Java解决方案) 相关问题是split two channels of AudioRecord of CHANNEL_IN_STEREO。然而,这是使用audiorecord,如何将其应用于从音频文件中读取? 感

    19热度

    1回答

    根据微软的说法,从Windows 10开始,使用共享模式WASAPI的应用程序可以请求小于10ms的缓冲区大小(请参阅https://msdn.microsoft.com/en-us/library/windows/hardware/mt298187%28v=vs.85%29.aspx)。 根据文章,实现如此低的延迟需要一些驱动程序更新,我这样做。使用独占模式渲染和捕捉流,我测量了大约13ms的总

    -1热度

    1回答

    我有几个音调的信号,并想知道给定的音调开始和结束的地方。 首先,我正在使用一个带通滤波器并转换信号(fft)以便知道录音是否有音调。 现在,我得到了时域中的滤波信号(图)。它被认为是从0ms到276ms(红线)。请记住,这个音调可能会在时间上移动(从150到426毫秒)。 如何检测的基调开始的位置和结束使用SciPy的?

    0热度

    1回答

    让我们从一个例子开始。假设我们有3个音频文件:first.mp3,second.mp3,third.mp3。我想先合并第二个,然后连接3.mp3合并音频。是否可以用一个命令做出? 我试图调用这样的命令: sox --combine mix first.mp3 second.mp3 --combine concatenate third.mp3 output.mp3 但随后output.mp3是