7
A
回答
6
号,输入层不需要偏置神经元的连接,因为它从偏置神经元接收到的任何激活将通过实际的输入可以完全覆盖。
例如,假设正试图解决经典XOR problem网络,采用这种架构(在神经元只标注1偏置):
运行输入该网络(1 ,0),您只需简单地限制神经元X1 = 1和X2 = 0的激活。现在,如果X1或X2也收到来自偏差的输入,则该输入将被覆盖,从而使这种连接毫无意义。
相关问题
- 1. 神经网络的输入层(应输入到所有神经元?)
- 2. 输出层神经元数
- 3. 为什么隐藏的神经网络层通常包含64,128,256个神经元?
- 4. 实施人工神经网络时,输入层是否应该被忽略?
- 5. 在训练神经网络时,你是否必须包含偏见?
- 6. 应该如何设置我的神经元输入到收到我输入
- 7. 每个神经元的神经网络偏差
- 8. 神经网络 - 不同的输入图层
- 9. 神经网络 - 预测输出层只有一个神经元的MNIST数字
- 10. 错误输出神经元
- 11. 神经网络中'偏倚'的含义和意义是什么?
- 12. 神经网络输出层节点数
- 13. 如何设置sklearn MLPClassifier输入神经元的数量?
- 14. 神经网络的输入
- 15. 神经网络偏差
- 16. 检查输入字段是否包含@
- 17. 卷积神经网络是否需要归一化输入?
- 18. 神经网络是否需要二进制输入?
- 19. 如何访问MATLAB中隐藏层神经元的输出值?
- 20. 我的神经网络有多少个输出神经元?
- 21. 神经网络神经元输出数> 1
- 22. 对神经网络层的输入形状错误
- 23. 如何偏见添加到神经网络层
- 24. 神经网络的输入/输出
- 25. 神经网络图层的输出有哪些用途?
- 26. 单层神经网络
- 27. 实现偏倚神经网络神经网络
- 28. 哪一层应该包含AutoMapper配置?
- 29. Neuroph - 获取Java的神经元输出
- 30. 如果我在输入层有1600个输入,神经网络中需要多少个隐藏层?
对不起,在你的绘图中,偏见神经元是输入层的一部分,因为它被转发到隐藏层,我错了吗? – tunnuz
呃,还挺。偏向神经元通常总是被描述为处于其自身的层中。我认为你的问题是关于是否将偏置单元连接到输入层中的单元。无论哪种情况,答案都是一个坚定的理由。你总是只需要一个具有恒定激活的偏置单元,并且处于其自己的层中。通常它连接到所有非输入层。 – zergylord
有关详细解释,请参阅此问题:http://stackoverflow.com/q/7175099/821806。此外,它不是我的数字,而是我从这里获得的一个数字:http://home.agh.edu.pl/~vlsi/AI/xor_t/en/main.htm – zergylord