首页 文章

训练神经网络与保持概率1相同,训练它没有辍学?

提问于
浏览
1

这似乎是一个更理论化的问题,我希望有人知道答案,我使用tensorflow来训练一个完全连接的深层神经网络,我将丢失应用到我的隐藏层,并在某些情况下调查辍学 .

我知道丢失仅适用于输入和隐藏层,为了评估网络,保持概率应该是1.0 . 对于我想要训练我的网络没有辍学的情况....我可以在隐藏层上设置保持概率1进行训练,还是我必须从我的源代码中完全删除它?

问候

1 回答

  • 1

    您可以按原样保留代码,保持概率为1.0确实等于没有丢失,因为每次激活都会保留 .

相关问题