1
据我所知TF只要并行调用多个运算符并行。 (link)TensorFlow:指定并行运行的Ops数
而并行可通过inter_op_parallelism_threads
和intra_op_parallelism_threads
如果在CPU(link)运行运营商ARë来控制。但是,这些参数完全不会影响GPU运算符。我该如何控制GPU的并行性? (例如,运行操作人员连续虽然有独立的运营商)
编辑:
a=tf.random_normal([N,N])
b=tf.random_normal([N,N])
c=tf.random_normal([N,N])
d=tf.random_normal([N,N])
x=tf.matmul(a,b)
y=tf.matmul(c,d)
z=tf.matmul(x,y)
GPU仅运行在时间s一个计算运算 –
http://stackoverflow.com/questions/39481453/tensorflow-device-contexts-streams-and-context-switching –
@YaroslavBulatov然后sess.run(z)的应采取比sess.run 3倍(x),对吗?但是,在我的实验中,它只需要2倍。 – enc