这更像是一个深度学习的概念问题,如果这不是一个正确的平台,我会在别处考虑。Python Keras LSTM学习在高损失上收敛太快
我正在尝试使用Keras LSTM顺序模型来学习文本序列并将它们映射到数值(回归问题)。
事情是,学习总是在高损失(训练和测试)上过快收敛。我已经尝试了所有可能的超参数,并且我感觉这是一个局部最小问题,会导致模型的高偏见。
我的问题基本上都是:
- 如何初始化给出这个问题的权重和偏见?
- 要使用哪个优化器?
- 我有多深应扩大网络(我怕如果我使用了非常深刻的网络,训练时间将是无法忍受的,模型的方差将增长)
- 我应该增加更多的训练数据?
输入和输出用minmax标准化。
我使用SGD与动量,目前3个LSTM层(126256128)和2个致密层(200和1个输出神经元)
我已打印几个信号出现时间后的权重,并注意到许多权重 是零其余的基本上都有1的值(或者非常接近它)。
我喜欢使用adam''优化器,它通常会自动找到它的方式。但是,如果没有很多测试和细节,你的答案就无法提供。看起来你的学习率可能太高,但这可能不是唯一可能的原因。 –
你的激活功能是什么? –