-
0 votesanswersviews
如何在keras中执行行方式或列方式最大池化
我试图在注意层上执行行方式和列方式最大池,如下面的链接所述:http://www.dfki.de/~neumann/ML4QAseminar2016/presentations/Attentive-Pooling-Network.pdf(slide-15) 我正在使用文本数据集,其中一个句子被送到CNN . 句子的每个单词都已嵌入 . 代码如下: model.add(Embedding(MAX_N... -
10 votesanswersviews
注意图层抛出TypeError:Permute图层不支持Keras中的屏蔽
我一直在关注这个post,以便在我的LSTM模型上实现关注层 . attention layer 的代码: INPUT_DIM = 2 TIME_STEPS = 20 SINGLE_ATTENTION_VECTOR = False APPLY_ATTENTION_BEFORE_LSTM = False def attention_3d_block(inputs): input_dim =...