0
A
回答
3
回答你的问题:是的,这是可能的。
如果您正在使用正规化或随机训练,MSE在训练时会出现一些起伏。
一些可能的原因的问题
您使用的是学习率过高,这让来过冲成本函数的局部极小的问题。
神经网络过度拟合。训练过多,失去推广能力。
你可以尝试什么:
当此开始发生,降低你的学习速度。
在您的网络上应用某种正则化,如退出,以避免过度配合。
相关问题
- 1. 训练神经网络
- 2. TensorFlow中的前训练神经网络
- 3. 在matlab中训练神经网络
- 4. 在Ruby中训练神经网络
- 5. OCR的训练前馈神经网络
- 6. 保存训练的神经网络
- 7. 嘈杂的神经网络训练集
- 8. Matlab:神经网络训练的问题
- 9. 神经网络训练即将停止
- 10. 何时停止训练神经网络?
- 11. 神经网络模型训练错误
- 12. 神经网络训练方法
- 13. 反向传播训练神经网络
- 14. 神经网络训练连续值
- 15. 神经网络训练不够好
- 16. 如何训练OCR神经网络?
- 17. 人工神经网络PSO训练
- 18. 运行训练卷积神经网络
- 19. Encog神经网络训练java太慢
- 20. 训练一个神经网络
- 21. 改变训练图像训练神经网络
- 22. 训练字母图像到全批培训的神经网络
- 23. 如何存储和访问经过训练的神经网络
- 24. 培训神经网络 -
- 25. 经常性神经网络训练和测试集
- 26. 如何训练神经网络中的输入 - 隐藏权重?
- 27. 在CNTK中训练神经网络的加权采样序列
- 28. 如何在MATLAB中训练英国车牌的神经网络?
- 29. 如何在直方图上训练OpenCV中的神经网络
- 30. 神经网络训练中的奇怪行为?
谢谢您的回答!我也考虑过学习率。过度配合是一个好点。我没有想过这件事。你知道有什么好的方法来调整学习速度吗? –
您可以手动执行此操作,检测MSE何时增加并将学习速率降低一位小数。例如,如果使用0.01将其更改为0.001。如果您使用随机梯度下降作为优化函数,则可以搜索优化算法,如Adam https://arxiv.org/abs/1412.6980。 Tensorflow已经实现了Adam优化器。希望能帮助到你。 –
谢谢!我会看看Adam,并尽可能实施它。我经常懒得手动做事:)根据你的经验:体重衰减是否值得作为正规化来实施? –