首页 文章

转学习为什么删除最后隐藏的图层?

提问于
浏览
-1

通常在阅读有关转移学习的博客时会说 - 删除最后一层,或删除最后两层 . 也就是说,删除输出图层和最后隐藏图层 .

因此,如果转移学习也意味着改变成本函数,例如从交叉熵到均方误差,我知道你需要将最后一个输出层从1001层softmax值更改为输出浮点数的Dense(1)层,但是:

  • 为什么还要更改最后一个隐藏图层?

  • 如果使用Keras和其中一个具有imagenet权重的预定义CNN模型,最后两个新图层的权重是多少?他初始化或0初始化?

2 回答

相关问题