直到最近,我所有在TF中的代码都使用tf.placeholder
来表示输入。这是非常方便的,因为它允许我喂养一批任意长度的网络,允许在不同的地方使用相同的代码(训练,测试,预测......)无TensorFlow占位符的工作
当发现feed_dict
是如此慢,我想改变并开始使用管道,它基本上使用tf.Variable
而不是占位符:每个变量是一个固定长度张量,并且表示一个用作网络输入的批处理。
我的问题是,虽然占位符是“解开”,你必须提供数据,管道绑定到输入数据。因此,例如,一旦我将管道设置为使用10号批处理的训练数据,我就不能使用12个例子中批处理的测试集中的数据。
或者我能吗?
没有占位符的正确工作方式是什么?
如果您正在使用的图像数据或文字工作只是好奇? – Aaron
对不起,以前没有回答:实际上,也没有。我正在处理物理信号数据。 – AkiRoss