首先我想说的是,我是真正的新的神经网络,我不明白这个问题非常好;)弹性BP神经网络 - 约梯度
我做的我的第一个C#实现反向传播神经网络。我用XOR测试过它,它看起来很有效。
现在我想改变我的实现使用弹性反向传播(Rprop - http://en.wikipedia.org/wiki/Rprop)。
的定义说:“RPROP只考虑到了所有的模式(而不是大小)的偏导数的符号,并在每个独立的行为‘重量’
有人能告诉我在什么偏导数。所有的模式是,我应该怎么计算这个偏导数在隐藏层神经元
非常感谢
更新:?对这个Java代码
我的实现基础:www_.dia.fi。 upm.es/~jamartin/downloads/bpnn.java
我backPropagate方法看起来像这样:
public double backPropagate(double[] targets)
{
double error, change;
// calculate error terms for output
double[] output_deltas = new double[outputsNumber];
for (int k = 0; k < outputsNumber; k++)
{
error = targets[k] - activationsOutputs[k];
output_deltas[k] = Dsigmoid(activationsOutputs[k]) * error;
}
// calculate error terms for hidden
double[] hidden_deltas = new double[hiddenNumber];
for (int j = 0; j < hiddenNumber; j++)
{
error = 0.0;
for (int k = 0; k < outputsNumber; k++)
{
error = error + output_deltas[k] * weightsOutputs[j, k];
}
hidden_deltas[j] = Dsigmoid(activationsHidden[j]) * error;
}
//update output weights
for (int j = 0; j < hiddenNumber; j++)
{
for (int k = 0; k < outputsNumber; k++)
{
change = output_deltas[k] * activationsHidden[j];
weightsOutputs[j, k] = weightsOutputs[j, k] + learningRate * change + momentumFactor * lastChangeWeightsForMomentumOutpus[j, k];
lastChangeWeightsForMomentumOutpus[j, k] = change;
}
}
// update input weights
for (int i = 0; i < inputsNumber; i++)
{
for (int j = 0; j < hiddenNumber; j++)
{
change = hidden_deltas[j] * activationsInputs[i];
weightsInputs[i, j] = weightsInputs[i, j] + learningRate * change + momentumFactor * lastChangeWeightsForMomentumInputs[i, j];
lastChangeWeightsForMomentumInputs[i, j] = change;
}
}
// calculate error
error = 0.0;
for (int k = 0; k < outputsNumber; k++)
{
error = error + 0.5 * (targets[k] - activationsOutputs[k]) * (targets[k] - activationsOutputs[k]);
}
return error;
}
因此,我可以使用change = hidden_deltas[j] * activationsInputs[i]
变量作为梯度(偏导数),用于检查所述唱?
我昨天晚上在调试我的实现上花了很多时间,我担心我不了解这个算法。你知道它有什么好的描述吗? – 2010-05-20 08:44:10