我是新来的张量流,我看到两种不同的方式使用GradientDescentOptimiser
:Tensorflow学习差环
for (x, y) in zip(trX, trY):
sess.run(train_op, feed_dict={X: x, Y: y})
我也见这种集成回路的
sess.run(train_op, feed_dict={X: trX, Y: trY})
我测试了但结果稍有不同。目前我只是训练自己进行简单的线性回归,但可能会对ANN
产生影响。为什么会有差异,哪个是神经网络的最佳代码?
嗨JLB,你能给出更多关于第二种情况的代码吗?什么是train_op,变量X和Y? – Corentin
当然,在下面的代码中定义了更多的代码,gradientdecent。 唯一的区别在于上面提到的估计循环。 成本= tf.square(Y - y_model)#使用平方误差为代价函数 train_op = tf.train.GradientDescentOptimizer(0.001).minimize(成本) var_grad = tf.gradients(成本,w)的 与TF。 Session()as sess: tf.initialize_all_variables()。run() for i in range(100): sess.run(train_op,feed_dict = {X:trX,Y:trY}) – JLB
您可能想要后者 - 获得张量来驱动执行。 – drpng