lstm

    4热度

    1回答

    这更像是一个深度学习的概念问题,如果这不是一个正确的平台,我会在别处考虑。 我正在尝试使用Keras LSTM顺序模型来学习文本序列并将它们映射到数值(回归问题)。 事情是,学习总是在高损失(训练和测试)上过快收敛。我已经尝试了所有可能的超参数,并且我感觉这是一个局部最小问题,会导致模型的高偏见。 我的问题基本上都是: 如何初始化给出这个问题的权重和偏见? 要使用哪个优化器? 我有多深应扩大网络(

    1热度

    1回答

    Tensorflow的DropoutWrapper允许将压差应用于单元的输入,输出或状态。然而,我还没有看到选择对细胞的经常权重(原始LSTM公式中使用的8种不同矩阵中的4种)做同样的事情。我只想在执行我自己的Wrapper之前检查是否属于这种情况,我相信这会非常简单。

    0热度

    2回答

    全部。我想从一个LSTM模型生成冻结模型(https://github.com/roatienza/Deep-Learning-Experiments/tree/master/Experiments/Tensorflow/RNN)。在我的选择中,我应该冻结最后一个预测节点并使用“bazel-bin/tensorflow/python/tools/freeze_graph --input_binar

    0热度

    1回答

    起初我以为我误解了关于Tensorflow API的一些东西。现在我怀疑我只是误解了如何在Jupyter笔记本中管理变量范围。 Tensorflow的LSTM教程示例recurrent_network.py如果将所有代码都插入jupyter笔记本中的单个单元并运行,它的工作原理非常漂亮。但是,当我瓜分程序为独立的单元,以正确的顺序(先定义等)运行一切,即使,我得到一个变量的作用域错误: 15

    0热度

    1回答

    我写过一个代码来设计Tensorflow中的长期短期存储网络。代码工作后,我做了很多的变化,并阅读本网站的一些意见。 这部分代码是很重要的解释: tf.reset_default_graph() with tf.variable_scope("conv1"): cell= tf.contrib.rnn.LSTMCell(n_hidden_units, forget_bias=0.0,

    1热度

    1回答

    为tf.contrib.legacy_seq2seq.embedding_rnn_seq2seq的正式文档具有用于output_projection参数如下解释: output_projection:无或一对(W,B)输出投影重量和偏见; W的形状为[output_size x num_decoder_symbols],B的形状为[num_decoder_symbols];如果提供并且feed_p

    1热度

    1回答

    我的数据集有多个包含顺序数据和非顺序数据的功能。 如何在模型中连接或使用它们以使用所有功能而不仅仅是顺序或非顺序的功能来解决问题? 在此先感谢。

    0热度

    1回答

    我保存了一个训练有素的LSTM模型,我想恢复预测以在测试中使用它。我试图按照this post。但我收到错误。这里是我的尝试: x = tf.placeholder('tf.float32', [None, input_vec_size, 1]) y = tf.placeholder('tf.float32') def recurrent_neural_network(x): l

    2热度

    1回答

    所以我想练习如何在Keras和所有参数(样本,时间步长,功能)使用LSTMs。 3D列表令我困惑。 因此,我有一些股票数据,如果列表中的下一个项目高于5的门槛值+2.50,它会购买或出售,如果它处于该阈值的中间,则这些是我的标签:我的Y. 对于我的特征我的XI具有[500,1,3]为我的500个样本的数据帧和每个时步为1,因为每个数据为3个特征1小时增量和3。但我得到这个错误: ValueErro

    0热度

    1回答

    编辑补充: 我发现了什么,我认为是一个可行的解决方案:https://bleyddyn.github.io/posts/2017/10/keras-lstm/ 我试图用一个转换次数/ LSTM网络控制机器人。我想我已经设置了一切,所以我可以开始在重播内存中对批量数据进行培训,但我无法弄清楚如何实际使用它来控制机器人。简体测试代码如下。 import numpy as np from keras