2016-11-11 65 views
0

下一批我有一个TensorFlow设置,看起来是这样的:加载过程中训练步骤

for b in batch_loader.iter_batches(self.TRAINING_SET): 
    ... 
    self.session.run(train_step, feed_dict=...) 

iter_batches功能从numpy的内存映射文件加载图像数据到RAM中。测量表明,从磁盘加载数据大约需要运行该时间的1/3时间。此外,train_step操作根本不需要访问硬盘驱动器。

因此,如果我可以在批量i的培训中加载下一批i+1,我可以让所有内容更快。

我可以使用一些python多处理库或TensorFlow提供这个用例的东西吗?我环顾了他们的文档,但没有找到任何东西。有没有一个规范的方式来做到这一点?

回答

1

您可以使用tf.train.start_queue_runnerstf.train.Coordinator设置队列。详情请参阅here

+0

这就是我最终做的,基本上[this](https://gist.github.com/eerwitt/518b0c9564e500b4b50f) – fabian789

相关问题