首页 文章

来自keras LSTM的输出不良,生成一个简单的序列

提问于
浏览
0

我正在尝试使用keras实现LSTM层并在非常简单的数据集上进行测试 .

这是我的代码

X = np.load("X.npy")
y = np.load("y.npy")

trainX = X[:30, :, :]
testX = X[30:, :, :]
trainY = y[:30, :]
testY = y[30:, :]

lastDense = X.shape[2]

if(X.shape[2] == 1):
    lastDense = 1
    trainX = np.reshape(trainX, (trainX.shape[0], 1, trainX.shape[1]))
    testX = np.reshape(testX, (testX.shape[0], 1, testX.shape[1]))

in_out_neurons = trainX.shape[2]
hidden_neurons = 100

model = Sequential()
model.add(LSTM(in_out_neurons, return_sequences=False, input_shape=(None, in_out_neurons)))
model.add(Dense(hidden_neurons))
model.add(Dropout(0.1))
model.add(Dense(lastDense))
model.add(Activation("linear"))
model.compile(loss="mse", optimizer="adam")

model.fit(trainX, trainY, nb_epoch=700, batch_size=trainX.shape[0])

print 'train'
print trainX
print model.predict(trainX)

print 'test'
print testX
print model.predict(testX)

它不显示任何错误,它运行并显示输出 .

我给它的序列只是数字1-39按升序排列,其中1-31是训练集,32-39是测试集 .

它以三元组排序,这意味着单个训练示例将是 (1, 2, 3) ,我期望输出 4 .

这是训练数据的输出

train
[[[  1.   2.   3.]]

 [[  2.   3.   4.]]

 [[  3.   4.   5.]]

 [[  4.   5.   6.]]

 [[  5.   6.   7.]]

 [[  6.   7.   8.]]

 [[  7.   8.   9.]]

 [[  8.   9.  10.]]

 [[  9.  10.  11.]]

 [[ 10.  11.  12.]]

 [[ 11.  12.  13.]]

 [[ 12.  13.  14.]]

 [[ 13.  14.  15.]]

 [[ 14.  15.  16.]]

 [[ 15.  16.  17.]]

 [[ 16.  17.  18.]]

 [[ 17.  18.  19.]]

 [[ 18.  19.  20.]]

 [[ 19.  20.  21.]]

 [[ 20.  21.  22.]]

 [[ 21.  22.  23.]]

 [[ 22.  23.  24.]]

 [[ 23.  24.  25.]]

 [[ 24.  25.  26.]]

 [[ 25.  26.  27.]]

 [[ 26.  27.  28.]]

 [[ 27.  28.  29.]]

 [[ 28.  29.  30.]]

 [[ 29.  30.  31.]]

 [[ 30.  31.  32.]]]
[[  4.09406757]
 [  5.05801105]
 [  5.98857021]
 [  6.88568211]
 [  7.78905582]
 [  8.71695137]
 [  9.67439938]
 [ 10.66011047]
 [ 11.66990376]
 [ 12.69835663]
 [ 13.73967934]
 [ 14.78820229]
 [ 15.83870316]
 [ 16.88658524]
 [ 17.92800713]
 [ 18.95988846]
 [ 19.97993088]
 [ 20.98649979]
 [ 21.97856903]
 [ 22.95560837]
 [ 23.91747856]
 [ 24.86432266]
 [ 25.79648972]
 [ 26.71446228]
 [ 27.61878586]
 [ 28.51003265]
 [ 29.3887558 ]
 [ 30.25547028]
 [ 31.11066628]
 [ 31.77085686]]

它运作得相当好 . 你可以看到第一个例子确实是[1,2,3],它输出4.09 . 下一个例子是[2,3,4],它输出5.05,这对我来说已经足够了 .

但是在测试集中,我对每个例子都得到了相同的结果 .

test
[[[ 31.  32.  33.]]

 [[ 32.  33.  34.]]

 [[ 33.  34.  35.]]

 [[ 34.  35.  36.]]

 [[ 35.  36.  37.]]

 [[ 36.  37.  38.]]

 [[ 37.  38.  39.]]]
[[ 31.81325912]
 [ 31.85035133]
 [ 31.88280106]
 [ 31.91120529]
 [ 31.93606949]
 [ 31.95784378]
 [ 31.97691345]]

非常糟糕的结果 . 我是否过度拟合?我正在使用辍学,所以我不应该,但我不知道发生了什么以及如何解决它 . 我使用keras lstm图层不正确吗?

1 回答

  • 0

    是的,count是一个简单的函数,LSTM可以完美地完成 .

    • 随机播放网络不了解批次之间增量的示例 .

    • 添加验证集,可能是另一个分割 . Keras允许你使用validation_data来看看它,也许在"nth"时代上有一个点开始过度拟合,所以你可以“early stop”学习 .

    • 减少神经元的数量,计数或求和是一个非常简单的操作 .

    • 如果这不起作用..增加例子的数量..也许10k . 增加示例数量可以避免过度拟合 .

    玩得开心!

    例:

    X = []
    for x in range(100):
        X.append([[x], [x+1], [x+2], [x+3]])
    X = np.array(X)
    
    
    np.random.shuffle(X)
    
    trainX = X[:30, 0:-1, :]
    testX = X[30:, 0:-1, :]
    
    trainY = X[:30, -1, :]
    testY = X[30:, -1, :]
    
    lastDense = X.shape[2]
    
    in_out_neurons = trainX.shape[1]
    hidden_neurons = 100
    
    model = Sequential()
    model.add(LSTM(in_out_neurons, return_sequences=False, input_shape=( in_out_neurons,1)))
    model.add(Dense(hidden_neurons))
    model.add(Dense(lastDense))
    model.add(Activation("linear"))
    model.compile(loss="mse", optimizer="adam", lr=.1)
    
    model.fit(trainX, trainY,validation_split=0.05, epochs=2000, batch_size=trainX.shape[0])
    
    print ('train')
    print (trainX)
    print (model.predict(trainX))
    
    print ('test')
    print (testX)
    print (model.predict(testX))
    

相关问题