2011-03-12 51 views
5

我目前正在创建一个应用程序,它可以从iPhone的麦克风实时预定义频率(16780Hz)处的幅度。Core-audio,Goertzel算法不起作用

我有一个缓冲区中的声音数据,我试图使用Goertzel来处理它,这是一个为此任务设计的算法。 Goertzel info。这是问题开始的地方。

当录制的声音比定义的(16780Hz)低得多(5000Hz)时,该算法的响应速度非常快。实际上,当记录正确频率的声音时,其结果远比正确的结果好。

这是我实现策尔的:

double goertzel(unsigned short *sample, int sampleRate, double Freq, int len) 
{ 

double realW = 2.0 * cos(2.0 * M_PI * Freq/sampleRate); 
double imagW = 2.0 * sin(2.0 * M_PI * Freq/sampleRate); 
double d1 = 0; 
double d2 = 0; 
int z; 
double y; 
for (int i = 0; i < len; i++) { 
    y=(double)(signed short)sample[i] +realW * d1 - d2; 
    d2 = d1; 
    d1 = y; 
} 
double rR = 0.5 * realW *d1-d2; 
double rI = 0.5 * imagW *d1-d2; 

return (sqrt(pow(rR, 2)+pow(rI,2)))/len; 
} /* end function goertzel */ 

这是我如何检索音频,如果它是在所有相关

-(void)startListeningWithFrequency:(float)frequency; 
{ 
OSStatus status; 
//AudioComponentInstance audioUnit; 
AudioComponentDescription desc; 
desc.componentType = kAudioUnitType_Output; 
desc.componentSubType = kAudioUnitSubType_RemoteIO; 
desc.componentFlags = 0; 
desc.componentFlagsMask = 0; 
desc.componentManufacturer = kAudioUnitManufacturer_Apple; 

AudioComponent inputComponent = AudioComponentFindNext(NULL, &desc); 
status = AudioComponentInstanceNew(inputComponent, &audioUnit); 
checkStatus(status); 

UInt32 flag = 1; 
status = AudioUnitSetProperty(audioUnit, kAudioOutputUnitProperty_EnableIO, kAudioUnitScope_Input,kInputBus, &flag, sizeof(flag)); 
checkStatus(status); 

AudioStreamBasicDescription audioFormat; 
audioFormat.mSampleRate   = 44100.00;//44100.00; 
audioFormat.mFormatID   = kAudioFormatLinearPCM; 
audioFormat.mFormatFlags  = kAudioFormatFlagIsPacked | kAudioFormatFlagIsSignedInteger; 
audioFormat.mFramesPerPacket = 1; 
audioFormat.mChannelsPerFrame = 1; 
audioFormat.mBitsPerChannel  = 16; 
// float 
audioFormat.mBytesPerPacket  = 2; 
audioFormat.mBytesPerFrame  = 2; 

status = AudioUnitSetProperty(audioUnit, 
           kAudioUnitProperty_StreamFormat, 
           kAudioUnitScope_Output, 
           kInputBus, 
           &audioFormat, 
           sizeof(audioFormat)); 
checkStatus(status); 
//status = AudioUnitSetProperty(audioUnit, 
//       kAudioUnitProperty_StreamFormat, 
//       kAudioUnitScope_Input, 
//       kOutputBus, 
//       &audioFormat, 
//       sizeof(audioFormat)); 
checkStatus(status); 
AURenderCallbackStruct callbackStruct; 
callbackStruct.inputProc = recordingCallback; 
callbackStruct.inputProcRefCon = self; 
status = AudioUnitSetProperty(audioUnit, 
           kAudioOutputUnitProperty_SetInputCallback, 
           kAudioUnitScope_Global, 
           kInputBus, &callbackStruct, sizeof(callbackStruct)); 
checkStatus(status); 
/* UInt32 shouldAllocateBuffer = 1; 
AudioUnitSetProperty(audioUnit, kAudioUnitProperty_ShouldAllocateBuffer, kAudioUnitScope_Global, 1, &shouldAllocateBuffer, sizeof(shouldAllocateBuffer)); 
*/ 
status = AudioOutputUnitStart(audioUnit); 

} 
static OSStatus recordingCallback(void *inRefCon, 
           AudioUnitRenderActionFlags *ioActionFlags, 
           const AudioTimeStamp *inTimeStamp, 
           UInt32 inBusNumber, 
           UInt32 inNumberFrames, 
           AudioBufferList *ioData) { 
AudioBuffer buffer; 

buffer.mNumberChannels = 1; 
buffer.mDataByteSize = inNumberFrames * 2; 
//NSLog(@"%d",inNumberFrames); 
buffer.mData = malloc(inNumberFrames * 2); 

// Put buffer in a AudioBufferList 
AudioBufferList bufferList; 
bufferList.mNumberBuffers = 1; 
bufferList.mBuffers[0] = buffer; 



OSStatus status; 
status = AudioUnitRender(audioUnit, 
         ioActionFlags, 
         inTimeStamp, 
         inBusNumber, 
         inNumberFrames, 
         &bufferList); 
checkStatus(status); 
//double g = calculateGoertzel((const char *)(&bufferList)->mBuffers[0].mData,16789.0,96000.0); 
UInt16 *q = (UInt16 *)(&bufferList)->mBuffers[0].mData; 
int N = sizeof(q)/sizeof(UInt16); 
double Qr,Qi; 
double theta = 2.0*M_PI*16780/44100; 
double g = goertzel(q,44100,16780,N); 

NSLog(@"goertzel:%f", g); 
} 

这将返回在数百个频数比16780Hz低得多,而对于16780Hz的频率,返回的数字要小得多。

我非常沮丧和帮助将不胜感激。

回答

3

只是一个猜测:

按照采样定理,采样率至少应为您试图测量频率的两倍。你的是,但几乎没有。 44.1kHz的采样率是测量22kHz信号的外缘。 16kHz的信号非常接近极限,以至于混叠可能会导致波形分析出现问题。这里有一张图片来说明我的观点: enter image description here

所以,我猜你需要更高的采样率。为什么不尝试在算法中运行纯正的16kHz正弦波,看看它是否更好?如果测试数据中只有一个频率,那么混叠将不再成为问题。如果你从正弦波得到更高的响应,那么你可能只需要更高的采样率。

+0

不幸的是,它一直只是正弦波,我一直在测试它:(还有什么建议吗?我尝试了双倍采样率无果 – 123hal321 2011-03-12 18:50:32

+0

如果不能在iPhone上采样率加倍,你必须重新读取采样率以确保它被接受,而且,你可能必须首先在会话属性中设置采样率,以防止它悄悄地故障转移到它认为应该是的原生采样率:​​ – Vagrant 2011-03-12 19:20:05

+0

Float64 preferredSampleRate = audioFormat-> mSampleRate; XThrowIfError(AudioSessionSetProperty(kAudioSessionProperty_PreferredHardwareSampleRate, 的sizeof(preferredSampleRate),preferredSampleRate)); – Vagrant 2011-03-12 19:22:24

2

看起来您的Goertzel滤波器中使用的谐振器是1极点谐振器的1度近似值。这将大大降低每步高相位角的精度和稳定性。使用更好的逼近trig函数的1-bin DFT可能在这样的高频率下工作得更好。

而iPhone麦克风的频率响应可能会在如此高的频率下降。

新增:

对于1斌DFT,试试这个在您的内循环:

d1 += (double)sample[i] * cos(2.0*M_PI*i*Freq/sampleRate); 
d2 += (double)sample[i] * sin(2.0*M_PI*i*Freq/sampleRate); 

然后返回:

dR = d1; 
dI = d2; 
magnitude = sqrt(dR*dR + dI*dI)/(double)len; 

注意,对于一个固定的频率和采样率trig函数可以在音频回调之外预先计算并保存在数组或查找表中。如果你不这样做一些优化,在你的音频回调中调用多个双精度超越函数可能会太慢和/或浪费大量的电池电量,但是可以在典型的快速PC上模拟OK。

DFT定义为一个长度,该长度是二进制频率Freq周期的精确整数值,但其他长度可用于包含所谓的频谱“泄漏”和/或扇形误差的不同量的近似值。滤波器频率响应的宽度将与DFT长度大致成反比。此外,频率越接近Fs/2,为了避免复杂的图像混叠,DFT所需的时间越长,可能需要多个长度为N * Fs /(Fs/2 - Freq)的周期才是更好的长度。您可能需要保存或排队样本以获得适当的长度(而不仅仅是使用音频回调给定的缓冲区长度)。

+0

你可以给我一个链接或指针如何做到这一点请/执行。 ty – 123hal321 2011-03-12 23:25:57

+1

尝试用您希望的滤波器频率的正弦波和余弦波将您的数据阵列相乘,对2个矢量进行求和,然后计算2D或复数幅度。 – hotpaw2 2011-03-13 01:41:59

+0

林非常抱歉,但请你能给我一个例子,我的尝试都是灾难性的,我非常需要这个工作。谢谢 – 123hal321 2011-03-13 07:22:38