为tf.contrib.legacy_seq2seq.embedding_rnn_seq2seq的正式文档具有用于output_projection参数如下解释: output_projection:无或一对(W,B)输出投影重量和偏见; W的形状为[output_size x num_decoder_symbols],B的形状为[num_decoder_symbols];如果提供并且feed_p
我保存了一个训练有素的LSTM模型,我想恢复预测以在测试中使用它。我试图按照this post。但我收到错误。这里是我的尝试: x = tf.placeholder('tf.float32', [None, input_vec_size, 1])
y = tf.placeholder('tf.float32')
def recurrent_neural_network(x):
l
编辑补充: 我发现了什么,我认为是一个可行的解决方案:https://bleyddyn.github.io/posts/2017/10/keras-lstm/ 我试图用一个转换次数/ LSTM网络控制机器人。我想我已经设置了一切,所以我可以开始在重播内存中对批量数据进行培训,但我无法弄清楚如何实际使用它来控制机器人。简体测试代码如下。 import numpy as np
from keras