我得到了一个神经网络,旨在做反向传播。神经网络后向传播:偏差趋于无穷
我已经使用隐藏层
Δwji对加权更新下面=η×ΔJ×义
其中ΔJ是φ'(VJ)* EJ其中VJ =ΣIwjiyi,和对于输出层和φ'(vj)* sum(δk* wkj)对于先前层
然而,隐藏单元的偏差之一总是趋于无穷大。它的含义是什么?
编辑:
要无限的值变成是从一些神经元的一些输入值VJ。所以,这意味着我的神经网络只是加强了这样的事实,即一个特定的神经元应该总是开火?
难道这也意味着我在训练时缺乏针对这些特定输入的各种示例吗?
我尝试了3个建议,但仍然没有改变。我仍然有偏差趋于无穷,并且NN以0%的准确度失败 – javaNoober