我试图找出一个问题,询问为什么如果在输入和输出之间添加不必要的附加层,MLP网络中的训练时间会急剧增加 . (这不是硬件问题)

我想这与反向传播过程有关 . 我知道重量更新只适用于导致错误的神经元..是否只是有更多的神经元,所以有更多的重量更新需要更长的时间?我不明白为什么会导致“戏剧性”增加 . 任何帮助,将不胜感激 .