首页 文章

为什么在pytorch中grad_output requires_grad为False?

提问于
浏览
-1

这是customLayer.py .

我对以下事情感到很困惑:

  • 内层的输入不是变量 . 然后在 backward 它变成一个变量并需要渐变 . 为什么?

  • grad_output 是变量但requires_grad为False . 为什么不是真的?

  • 在我的自定义图层中,我需要自定义向前和向后操作 . 这很复杂 . 看到相同的链接 . 我已在其中发布了问题 .

1 回答

  • 1
    • 渐变通过损耗计算更新,并且是反向传播所必需的 . 如果您没有渐变,则无法训练您的网络 .

    • 可能,因为你暂时只是为了一个落后阶段 .

    • 为什么需要自定义后退功能?你的反向传播需要额外的操作吗?

相关问题