-
0 votesanswersviews
Tensorflow / LSTM机制:如何指定LSTM单元的第一个时间步的先前输出
刚开始使用TensorFlow为多类分类构建LSTM网络 给定如下所示的结构:A RNN model假设每个节点A代表TensorFlow BasicLSTMcell . 根据网上发现的一些流行的例子,培训的输入准备为[batch_size,timeStep_size,feature_size] 让我们假设timeStep_size = 5,feature_size = 2,num_class =... -
4 votesanswersviews
获取具有可变序列长度的激活时的Tensorflow GRU单元错误
我想在一些时间序列数据上运行GRU单元格,以根据最后一层中的激活对它们进行聚类 . 我对GRU单元实现做了一个小改动 def __call__(self, inputs, state, scope=None): """Gated recurrent unit (GRU) with nunits cells.""" with vs.vari... -
8 votesanswersviews
在Tensorflow中混合前馈层和复发层?
有没有人能够在Tensorflow中混合前馈层和重复层? 例如:input-> conv-> GRU-> linear-> output 我可以想象一个人可以用前馈层定义他自己的单元格而没有可以使用MultiRNNCell函数堆叠的状态,如: cell = tf.nn.rnn_cell.MultiRNNCell([conv_cell,GRU_cell,linear_cell... -
2 votesanswersviews
Tensorflow RNN输入大小
我试图使用tensorflow来创建一个循环神经网络 . 我的代码是这样的: import tensorflow as tf rnn_cell = tf.nn.rnn_cell.GRUCell(3) inputs = [tf.constant([[0, 1]], dtype=tf.float32), tf.constant([[2, 3]], dtype=tf.float32)] outpu... -
2 votesanswersviews
Tensorflow Stacked GRU Cell
我正在尝试在张量流中实现具有MultiRNNCell和GRUCell的堆叠RNN . 从GRUCell的默认实现可以看出,GRUCell的“输出”和“状态”是相同的: class GRUCell(RNNCell) ... def call(self, inputs, state): ... new_h = u * state + (1 - u) * c return... -
2 votesanswersviews
在张量流中创建多层递归神经网络
我正在尝试用张量流中的GRU单元(以及LSTM单元)创建一个多层递归神经网络 . 我查看了多个来源,包括官方教程 . 但我一直看到多层RNN的以下模式(此处显示GRU单元) . cell = GRUCell(num_neurons) # Or LSTMCell(num_neurons) cell = DropoutWrapper(cell, output_keep_prob=dropout) c...