我正在尝试使用keras实现LSTM层并在非常简单的数据集上进行测试 .
这是我的代码
X = np.load("X.npy")
y = np.load("y.npy")
trainX = X[:30, :, :]
testX = X[30:, :, :]
trainY = y[:30, :]
testY = y[30:, :]
lastDense = X.shape[2]
if(X.shape[2] == 1):
lastDense = 1
trainX = np.reshape(trainX, (trainX.shape[0], 1, trainX.shape[1]))
testX = np.reshape(testX, (testX.shape[0], 1, testX.shape[1]))
in_out_neurons = trainX.shape[2]
hidden_neurons = 100
model = Sequential()
model.add(LSTM(in_out_neurons, return_sequences=False, input_shape=(None, in_out_neurons)))
model.add(Dense(hidden_neurons))
model.add(Dropout(0.1))
model.add(Dense(lastDense))
model.add(Activation("linear"))
model.compile(loss="mse", optimizer="adam")
model.fit(trainX, trainY, nb_epoch=700, batch_size=trainX.shape[0])
print 'train'
print trainX
print model.predict(trainX)
print 'test'
print testX
print model.predict(testX)
它不显示任何错误,它运行并显示输出 .
我给它的序列只是数字1-39按升序排列,其中1-31是训练集,32-39是测试集 .
它以三元组排序,这意味着单个训练示例将是 (1, 2, 3)
,我期望输出 4
.
这是训练数据的输出
train
[[[ 1. 2. 3.]]
[[ 2. 3. 4.]]
[[ 3. 4. 5.]]
[[ 4. 5. 6.]]
[[ 5. 6. 7.]]
[[ 6. 7. 8.]]
[[ 7. 8. 9.]]
[[ 8. 9. 10.]]
[[ 9. 10. 11.]]
[[ 10. 11. 12.]]
[[ 11. 12. 13.]]
[[ 12. 13. 14.]]
[[ 13. 14. 15.]]
[[ 14. 15. 16.]]
[[ 15. 16. 17.]]
[[ 16. 17. 18.]]
[[ 17. 18. 19.]]
[[ 18. 19. 20.]]
[[ 19. 20. 21.]]
[[ 20. 21. 22.]]
[[ 21. 22. 23.]]
[[ 22. 23. 24.]]
[[ 23. 24. 25.]]
[[ 24. 25. 26.]]
[[ 25. 26. 27.]]
[[ 26. 27. 28.]]
[[ 27. 28. 29.]]
[[ 28. 29. 30.]]
[[ 29. 30. 31.]]
[[ 30. 31. 32.]]]
[[ 4.09406757]
[ 5.05801105]
[ 5.98857021]
[ 6.88568211]
[ 7.78905582]
[ 8.71695137]
[ 9.67439938]
[ 10.66011047]
[ 11.66990376]
[ 12.69835663]
[ 13.73967934]
[ 14.78820229]
[ 15.83870316]
[ 16.88658524]
[ 17.92800713]
[ 18.95988846]
[ 19.97993088]
[ 20.98649979]
[ 21.97856903]
[ 22.95560837]
[ 23.91747856]
[ 24.86432266]
[ 25.79648972]
[ 26.71446228]
[ 27.61878586]
[ 28.51003265]
[ 29.3887558 ]
[ 30.25547028]
[ 31.11066628]
[ 31.77085686]]
它运作得相当好 . 你可以看到第一个例子确实是[1,2,3],它输出4.09 . 下一个例子是[2,3,4],它输出5.05,这对我来说已经足够了 .
但是在测试集中,我对每个例子都得到了相同的结果 .
test
[[[ 31. 32. 33.]]
[[ 32. 33. 34.]]
[[ 33. 34. 35.]]
[[ 34. 35. 36.]]
[[ 35. 36. 37.]]
[[ 36. 37. 38.]]
[[ 37. 38. 39.]]]
[[ 31.81325912]
[ 31.85035133]
[ 31.88280106]
[ 31.91120529]
[ 31.93606949]
[ 31.95784378]
[ 31.97691345]]
非常糟糕的结果 . 我是否过度拟合?我正在使用辍学,所以我不应该,但我不知道发生了什么以及如何解决它 . 我使用keras lstm图层不正确吗?
1 回答
是的,count是一个简单的函数,LSTM可以完美地完成 .
随机播放网络不了解批次之间增量的示例 .
添加验证集,可能是另一个分割 . Keras允许你使用validation_data来看看它,也许在"nth"时代上有一个点开始过度拟合,所以你可以“early stop”学习 .
减少神经元的数量,计数或求和是一个非常简单的操作 .
如果这不起作用..增加例子的数量..也许10k . 增加示例数量可以避免过度拟合 .
玩得开心!
例: