这是customLayer.py .
我对以下事情感到很困惑:
-
内层的输入不是变量 . 然后在
backward
它变成一个变量并需要渐变 . 为什么? -
grad_output
是变量但requires_grad为False . 为什么不是真的? -
在我的自定义图层中,我需要自定义向前和向后操作 . 这很复杂 . 看到相同的链接 . 我已在其中发布了问题 .
这是customLayer.py .
我对以下事情感到很困惑:
内层的输入不是变量 . 然后在 backward
它变成一个变量并需要渐变 . 为什么?
grad_output
是变量但requires_grad为False . 为什么不是真的?
在我的自定义图层中,我需要自定义向前和向后操作 . 这很复杂 . 看到相同的链接 . 我已在其中发布了问题 .
1 回答
渐变通过损耗计算更新,并且是反向传播所必需的 . 如果您没有渐变,则无法训练您的网络 .
可能,因为你暂时只是为了一个落后阶段 .
为什么需要自定义后退功能?你的反向传播需要额外的操作吗?