首页 文章
  • 0 votes
     answers
     views

    对不同规模的小型车进行培训

    我正在尝试在PyTorch中训练一个深度学习模型的图像,这些图像已经被特定维度所取代 . 我想用迷你批次训练我的模型,但是迷你批量大小并没有巧妙地划分每个桶中的例子数量 . 我在a previous post中看到的一个解决方案是用额外的空格填充图像(在训练开始时即时或全部一次),但我不想这样做 . 相反,我希望在培训期间允许批量大小灵活 . 具体来说,如果 N 是存储桶中的图像数量且 B 是批量...
  • 0 votes
     answers
     views

    在小批量梯度下降中混淆使用丢失

    我的问题到底是什么 . CN25使用小批量GD进行训练,并使用最后一个完全连接层(第60行)中的丢失 fc1 = tf.layers.dropout(fc1, rate=dropout, training=is_training) 起初我以为 tf.layers.dropout 或 tf.nn.dropout 在列中随机将神经元设置为零 . 但我最近发现事实并非如此 . 下面的代码打印 drop...
  • 1 votes
     answers
     views

    Tensorflow重叠迷你批次

    给出数据集中的一些数据(或张量) tensor = tf.constant([1, 2, 3, 4, 5, 6, 7]) 我需要通过替换来绘制(比如 4 x 3 )来创建 N 批次的 M 元组 . 一个例子就是 [[1 2 3], [3, 4 5], [2, 3, 4], [5, 6, 7]] 目的是避免以这种形式创建数据集 [[1, 2, 3] [2, 3, 4] [4, 5, 6] ...
  • 0 votes
     answers
     views

    训练后的递归神经网络小批量依赖性

    目前,我有一个神经网络,内置张量流,用于将时间序列数据分类为6个类别之一 . 该网络由以下部分组成: 2个完全连接的层 - > LSTM单元 - > softmax - >输出 所有层都以丢失和/或层归一化的形式进行正则化 . 为了加快训练过程,我使用的是迷你批量数据,其中 mini-batch size = # of categories = 6 . 每个小批量包含6个类别...
  • 0 votes
     answers
     views

    tensorflow,mini-batch,tf.placeholder - 在给定的迭代中读取节点的状态

    我想在每个纪元/批次组合中打印MSE的值 . 下面的代码报告表示mse的张量对象,而不是每次迭代时的值: print("Epoch", epoch, "Batch_Index", batch_index, "MSE:", mse) 示例输出行: Epoch 0 Batch_Index 0 MSE:Tensor(“mse_2:0”,sh...

热门问题