首页 文章
  • 1 votes
     answers
     views

    Pytorch二阶导数卡在两个错误之间:缓冲区已被释放,变量是易失性的

    我有一个损失函数和一个权重矩阵列表,我正在尝试计算二阶导数 . 这是一段代码: loss.backward(retain_graph=True) grad_params_w=torch.autograd.grad(loss, weight_list,create_graph=True) for i in range(layers[a]): for j in range (laye...
  • 2 votes
     answers
     views

    针对可变尺寸输入的微型批量培训

    我有一个LongTensors列表和另一个标签列表 . 我是PyTorch和RNN的新手,所以我对如何对我拥有的数据实施小批量培训感到困惑 . 这些数据还有很多,但我想保持简单,所以我只能理解如何实现minibatch培训部分 . 我正在根据在可变长度输入上训练的LSTM / GRU的最终隐藏状态进行多类分类 . 我设法让它使用批量1(基本上是SGD),但我正在努力实现minibatches . ...
  • 1 votes
     answers
     views

    Pytorch:输出w.r.t参数的梯度

    我对寻找关于参数(权重和偏差)的神经网络输出的梯度感兴趣 . 更具体地说,假设我有以下神经网络结构[6,4,3,1] . 输入样本大小为20.我感兴趣的是找到权重(和偏差)的神经网络输出的梯度,如果我没有弄错,在这种情况下将是47.在文献中,这个梯度有时被称为Weight_Jacobian . 我在Jupyter Notebook上使用Python 3.6上的Pytorch版本0.4.0 . 我制...
  • 2 votes
     answers
     views

    pytorch自定义层“不是模块子类”

    我是PyTorch的新手,在使用不同的工具包一段时间后尝试了 . 我想了解如何编程自定义图层和功能 . 作为一个简单的测试,我写了这个: class Testme(nn.Module): ## it _is_ a sublcass of module ## def __init__(self): super(Testme, self).__init__() ...
  • 3 votes
     answers
     views

    pytorch:如何直接找到渐变w.r.t.失利

    在theano中,很容易得到某些变量的梯度w.r.t.给定的损失: loss = f(x, w) dl_dw = tt.grad(loss, wrt=w) 我得到了pytorch的不同范式,你可以做以下事情: loss = f(x, w) loss.backwards() dl_dw = w.grad 问题是我可能不希望通过图形进行完全向后传播 - 只需沿着需要到达w的路径 . 我知道你可以用...

热门问题