首页 文章

如何在Tensorflow中使用None维切割张量

提问于
浏览
1

我想在“无”维度中切片张量 .

例如,

tensor = tf.placeholder(tf.float32, shape=[None, None, 10], name="seq_holder")
sliced_tensor = tensor[:,1:,:] # it works well!

# Assume that tensor's shape will be [3,10, 10]
tensor = tf.placeholder(tf.float32, shape=[None, None, 10], name="seq_holder")
sliced_seq = tf.slice(tensor, [0,1,0],[3, 9, 10]) # it doens't work!

当我使用另一个place_holder为tf.slice()提供大小参数时,我得到一条消息 .

第二种方法给了我“输入大小(输入深度)必须可以通过形状推断访问”错误消息 .

我想知道两种方法之间有什么不同,什么是更多张量流方式 .

[编辑]整个代码如下

import tensorflow as tf
import numpy as np

print("Tensorflow for tests!")

vec_dim = 5
num_hidden = 10
# method 1
input_seq1 = np.random.random([3,7,vec_dim])

# method 2
input_seq2 = np.random.random([5,10,vec_dim])
shape_seq2 = [5,9,vec_dim]
# seq: [batch, seq_len]
seq = tf.placeholder(tf.float32, shape=[None, None, vec_dim], name="seq_holder")

# Method 1
sliced_seq = seq[:,1:,:]

# Method 2
seq_shape = tf.placeholder(tf.int32, shape=[3])
sliced_seq = tf.slice(seq,[0,0,0], seq_shape)

cell = tf.contrib.rnn.GRUCell(num_units=num_hidden)
init_state = cell.zero_state(tf.shape(seq)[0], tf.float32)

outputs, last_state = tf.nn.dynamic_rnn(cell, sliced_seq, initial_state=init_state)

with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
    # method 1
    # states = sess.run([sliced_seq], feed_dict={seq:input_seq1})
    # print(states[0].shape)

    # method 2
    states = sess.run([sliced_seq], feed_dict={seq:input_seq2, seq_shape:shape_seq2})
    print(states[0].shape)

1 回答

  • 1

    您的问题完全由issue #4590描述

    问题是 tf.nn.dynamic_rnn 需要知道输入中最后一个维度的大小("depth") . 不幸的是,正如问题所指出的那样,如果任何切片范围在图形构建时未完全知晓,则当前 tf.slice 无法推断任何输出大小;因此, sliced_seq 最终形状为 (?, ?, ?) .

    在您的情况下,第一个问题是您使用三个元素的占位符来确定切片的大小;这不是最好的方法,因为最后一个维度永远不会改变(即使你以后通过 vec_dim ,也可能导致错误) . 最简单的解决方案是将 seq_shape 转换为大小为2的占位符(或者甚至是两个单独的占位符),然后执行切片,如:

    sliced_seq = seq[:seq_shape[0], :seq_shape[1], :]
    

    出于某种原因,NumPy风格的索引似乎具有更好的形状推理能力,这将保留 sliced_seq 中最后一个维度的大小 .

相关问题