它是线性代数共同优化的乘法然后通过附加伪恒定尺寸的输入,那么整个变成单个乘法(Wx + b => W'x'
)添加公共的操作。Tensorflow优化乘法然后添加
有没有在Tensorflow这样做任何好处,还是会优化该反正(例如tf.matmul(...) + b
与tf.matmul(...)
)
它是线性代数共同优化的乘法然后通过附加伪恒定尺寸的输入,那么整个变成单个乘法(Wx + b => W'x'
)添加公共的操作。Tensorflow优化乘法然后添加
有没有在Tensorflow这样做任何好处,还是会优化该反正(例如tf.matmul(...) + b
与tf.matmul(...)
)
是你所谈论的不是增加速度,减少了内存的优化。这只是缩短数学表达式的一种方法。
b
你只是在前面加上/与b
同样大小的列追加你的矩阵向量没有减少。n
元素b_i
如果您只是添加一个向量来添加n
元素计算为c_i * x_i
。在TF中这样做没有好处(在速度/记忆方面),并且不,TF本身并不优化它。
如果你更容易阅读和理解那里正在发生的事情,你可以自由地以这种方式写。
你能解释为什么你认为这不会提高速度或减少内存?我一直认为它的确如此。 – SRobertJames
我也会好奇听到你的理由,为什么它应该改善任何事情。我在答案中加上了我的理由 –
添加不需要的乘法优化? – user1735003