首页 文章

训练集的平均误差等于测试集的平均误差?

提问于
浏览
0

我正在针对图像分类问题培训深度网络(GoogleNet) . 我有一个大约7300个图像的数据集,仅在2个类别中标注 .

我按照这些比例将我的训练和训练集分开:0.66 / 0.33 .

在训练期间,我计算训练集和测试集上的平均误差,以了解它是如何演变的 .

问题是这两个值总是相等的(或者是接近的) .

所以也许这不是问题,但我没想到会发生这种情况 . 由于我正在训练我的训练集,我预计我的训练集上的平均误差始终是我的测试集上的平均误差(即使我希望这两个值收敛到大约相同的值) .

也许有人可以告诉我它是否正常?在预期的情况下,为什么?如果不是,任何关于发生了什么的想法?

可能有用的更多信息:我使用50,adam优化器的迷你批次,我的损失用tf.nn.softmax_cross_entropy_with_logits(labels = y_,logits = y_predict)计算,我使用0.4的丢失(但是当我计算平均值时错误我确保它是1) .

谢谢 .

1 回答

  • 1

    这很合理 . 您将数据划分为来自相同总体的两个随机样本 . 是的,考虑到样本的大小,它们应该具有几乎相同的平均值 . 这是大数定律的简单效果:从同一群体中取得的样本往往具有相同的均值 .

相关问题