-2
这里是customLayer.py。pytorch中为什么grad_output requires_grad是False?
我很困惑以下的事情:
- 内层的输入不是一个变量。然后在
backward
它变成一个变量,并要求梯度。为什么? grad_output
是一个变量,但require_grad是False。为什么不是真的?- 在我的自定义图层中,我需要自定义向前和向后的操作。这很复杂。看到相同的链接。我已经在其中发布了问题。
1.你是什么意思的内层? 2. grad_output,正如其名称所示是梯度计算的结果。为什么这个变量需要_grad? – Maximilian