我正在研究一个序列到序列的RNN,我遇到了一个令人沮丧的问题:在采样过程中,发生器/解码器在训练一段时间后一遍又一遍地产生相同的字 . 每次重新训练网络时,这个词都不同 .

导致这种行为的原因是什么?