我在keras训练了一个递归神经网络(LSTM),但现在我正努力将所有碎片放在一起 . 具体来说,我无法理解如何重构权重矩阵 .
我有一个输入,一个隐藏和一个输出层,如下所示:
# create the model
model = Sequential()
model.add(LSTM(100, dropout=0.5, recurrent_dropout=0.5, input_shape=(timesteps, data_dim), activation='tanh'))
model.add(Dense(5, activation='softmax'))
当我调用 model.get_weights()
时,我只获得隐藏和输出图层的偏置单位,但输入图层的偏差单位似乎丢失了 . 也就是说,我有一个15x400矩阵,然后是400x101和101X5 .
我在这里错过了什么吗?
谢谢你的帮助
1 回答
Sequential是Keras中的模型,而不是输入层 . 神经网络中的输入层只是将输入传递给隐藏层,并且它不需要偏置神经元 . 在您的情况下,model.get_weights()返回这些数组
(15,400)
(100,400)
(400)
(100,5)
(5)
其中有
(400,)是LSTM层的偏置数组
(5,)是密集层的偏置数组