2016-05-12 57 views
1

我一直关注Andrew NG的神经网络视频。在这些视频中,他并没有将偏见与每一个神经元联系在一起。相反,他在激活计算完成后在每一层的头部增加一个偏差单位,并利用这个偏差和计算结果来计算下一层激活(前向传播)。然而,在其他一些关于机器学习和像https://www.youtube.com/watch?v=aVId8KMsdUU等视频的博客中,每个神经元都存在一种偏见。这个区别是什么?为什么?它有什么影响?每个神经元的神经网络偏差

回答

1

两种方法都代表相同的偏差概念。对于每个单元(不包括输入节点)你计算(在前馈网络的情况下)载体加标量偏压值从前面的层的权重和激活的点积的激活函数的值:

(w * a) + b 

在Andrew Ng这个值是使用矢量化技巧计算出来的,其中您将激活与指定的偏差常数(通常为1)连接起来,并且该作业(因为此常数对于不同节点具有其自己的权重 - 所以这完全相同为每个节点设置另一个偏差值)。

+0

但是在Andrew NG的课程中,如果我们添加一个偏差,那么下一层中的所有神经元都不会有相同的偏差吗?如果我们初始化每个神经元的偏差,情况就不会这样,因为我们可以初始化不同神经元的不同偏差。 – RaviTej310

+1

偏差值是相同的 - 但每个节点对它有不同的权重。所以如果例如一些节点具有偏置权重w_0并且偏置常数为a_0,则相应的偏置值等于w_0 * a_0。您只需通过学习正确的权重w_0即可调整每个偏差值。 –