什么是 tf.stop_gradient() 等效(在反向传播期间提供了一种不计算某些变量的梯度的方法)?
tf.stop_gradient()
你能用x.detach()查看 .
pytorch中的张量具有requires_grad属性 . 将其设置为 False 以防止该张量的梯度计算 .
False
2 回答
你能用x.detach()查看 .
pytorch中的张量具有requires_grad属性 . 将其设置为
False
以防止该张量的梯度计算 .