首页 文章

验证损失增加

提问于
浏览
2

我试图通过我的numpy神经网络解决狗与猫的问题 .

验证丢失

Validation loss graph

训练损失

training loss graph

我的训练损失很好,但验证损失增加,所以我的模型绝对过度拟合 . 我使用了两个大小为125,50的隐藏层 . 我使用0.075的学习率运行600次迭代的模型 .

我也试过使用lambda = 0.01或0.03的正则化,但仍然没有帮助 .

解决这个问题的任何方法?

1 回答

  • 0

    将Dropout添加到每个图层,丢失概率为.5 . 了解它如何影响验证错误,如果您的训练误差不会超过特定点,请将概率降低到.3或从第一层依次删除 . 这里有点尝试和错误 .

    我猜你的意思是使用lamda进行L2正则化(权重衰减) . 如今,网络通常使用辍学和非常小的L2,如0.0005 . L2使权重接近于零并防止它们爆炸 . Dropout是一个更好的调节器,因为它在训练期间随机丢弃节点,从而导致某种特殊化 .

    祝好运 .

相关问题