通常反向传播神经网络存在消失梯度的问题。 我发现卷积神经网络(CNN)一些如何摆脱这种消失的渐变问题(为什么?)。为什么要对卷积神经网络进行预训练
也在一些论文中讨论了CNN的一些预训练方法。 有人可以解释我以下吗?
(1) the resons for pretraining in CNN and
(2) what are the problems/limitations with CNN?
(3) any relavent papers talking about the limitation of CNN?
在此先感谢。
只是关于第一点。 CNN作为其他类型的深度学习方法试图学习稀释反向传播算法的能力的许多节点和层。输出节点的错误差异为10%可能导致第一层更新0.000001%。预训练(无监督方法)不会受到这些问题的困扰,可以在使用反向传播进行微调之前将网络更新为有意义的权重(并将模式与我们所需的输出相关联)。 – ASantosRibeiro 2014-10-17 12:50:59
尝试在交叉验证中查找:http://stats.stackexchange.com/search?q=cnn – killogre 2014-10-28 12:06:39