1
我一直关注Andrew NG的神经网络视频。在这些视频中,他并没有将偏见与每一个神经元联系在一起。相反,他在激活计算完成后在每一层的头部增加一个偏差单位,并利用这个偏差和计算结果来计算下一层激活(前向传播)。然而,在其他一些关于机器学习和像https://www.youtube.com/watch?v=aVId8KMsdUU等视频的博客中,每个神经元都存在一种偏见。这个区别是什么?为什么?它有什么影响?每个神经元的神经网络偏差
但是在Andrew NG的课程中,如果我们添加一个偏差,那么下一层中的所有神经元都不会有相同的偏差吗?如果我们初始化每个神经元的偏差,情况就不会这样,因为我们可以初始化不同神经元的不同偏差。 – RaviTej310
偏差值是相同的 - 但每个节点对它有不同的权重。所以如果例如一些节点具有偏置权重w_0并且偏置常数为a_0,则相应的偏置值等于w_0 * a_0。您只需通过学习正确的权重w_0即可调整每个偏差值。 –