得到grad_and_var
元组compute_gradient
后:如何在tensorflow-r1.0中修剪grad_and_var元组的梯度范数?
opt = tf.train.RMSPropOptimizer(learning_rate)
grad_and_var = opt.compute_gradients(losses, params)
我想剪辑grad_and_var
。但是,当我做的:
clipped_gradients, _ = tf.clip_by_global_norm(grad_and_var, max_gradient_norm)
直接,所产生的clipped_gradients
是张名单,这意味着,梯度和变数一直连接在一起。
如果我做
clipped_gradients = [tf.clip_by_global_norm(x[0], max_gradient_norm)[0] for x in grad_and_var]
我得到了这样的错误:
TypeError: t_list should be a sequence
你有什么想法,我该如何解决?非常感谢!