目标是预测87601次步(10年)和9个目标的时间序列Y.输入特征X(外生输入)是11个87600次步长的时间序列 . 输出还有一个时间步长,因为这是初始值 . 时间步t t的输出Yt取决于输入Xt和前一输出Yt-1 .
因此,模型应如下所示:Model layout
我只能在这个上找到这个帖子:LSTM: How to feed the output back to the input? #4068 . 我尝试用Keras实现这个如下:
def build_model():
# Input layers
input_x = layers.Input(shape=(features,), name='input_x')
input_y = layers.Input(shape=(targets,), name='input_y-1')
# Merge two inputs
merge = layers.concatenate([input_x,input_y], name='merge')
# Normalise input
norm = layers.Lambda(normalise, name='scale')(merge)
# Hidden layers
x = layers.Dense(128, input_shape=(features,))(norm)
# Output layer
output = layers.Dense(targets, activation='relu', name='output')(x)
model = Model(inputs=[input_x,input_y], outputs=output)
model.compile(loss='mean_squared_error', optimizer=Adam())
return model
def make_prediction(model, X, y):
y_pred = [y[0,None,:]]
for i in range(len(X)):
y_pred.append(model.predict([X[i,None,:],y_pred[i]]))
y_pred = np.asarray(y_pred)
y_pred = y_pred.reshape(y_pred.shape[0],y_pred.shape[2])
return y_pred
# Fit
model = build_model()
model.fit([X_train, y_train[:-1]], [y_train[1:]]], epochs=200,
batch_size=24, shuffle=False)
# Predict
y_hat = make_prediction(model, X_train, y_train)
这有效,但它不是我想要实现的,因为有no connection between input and output . 因此,该模型没有学习如何校正反馈输出中的误差,这导致在预测时导致精度差,因为输出上的误差在每个时间步累积 .
在训练阶段,Keras有没有办法实现输出输入反馈?此外,由于Y的初始值始终是已知的,我也想将其提供给网络 .