2016-06-23 33 views
0

我想用数千次的时间步长构建一个RNN,所以正确的方法是使用while_loop函数,因为GPU在for循环中将会出现内存不足。如何使用带张量流的while_loop在每个步骤中保存输出?

但我找不到在每一步都保存rnn输出的方法。我尝试使用全局列表或使用tf.concat()来累积输出。都没有工作。看起来像while_loop()只能用于获取最终输出。

是否有解决方案来获得所有的输出?

回答

1

尝试tf.nn.dynamic_rnn这确实使用while_loopTensorArray对象。

相关问题