稀疏张量与它们自身或密集张量的相乘似乎在TensorFlow中不起作用 . 以下示例
from __future__ import print_function
import tensorflow as tf
x = tf.constant([[1.0,2.0],
[3.0,4.0]])
y = tf.SparseTensor(indices=[[0,0],[1,1]], values=[1.0,1.0], shape=[2,2])
z = tf.matmul(x,y)
sess = tf.Session()
sess.run(tf.initialize_all_variables())
print(sess.run([x, y, z]))
失败并显示错误消息
TypeError: Input 'b' of 'MatMul' Op has type string that does not match type
float32 of argument 'a'
两个张量都具有float32类型的值,通过在没有乘法运算的情况下对它们进行求值来看 . y与其自身的乘法返回类似的错误消息 . x与其自身的乘法运行良好 .
4 回答
目前,TensorFlow中未实现
tf.SparseTensor
的通用乘法 . 但是,有三种部分解决方案,选择正确的解决方案取决于数据的特征:如果您有
tf.SparseTensor
和tf.Tensor
,则可以使用tf.sparse_tensor_dense_matmul()将它们相乘 . 如果其中一个张量过大而无法在内存中加密,则这比下一个方法更有效:文档对如何在这两种方法之间做出决定提供了更多指导 . 请注意,它接受tf.SparseTensor
作为 first 参数,因此要解决您的确切问题,您需要使用adjoint_a
和adjoint_b
参数,并转置结果 .如果你有两个稀疏张量并且需要将它们相乘,那么最简单的(如果不是最高性能)方法是将它们转换为密集并使用
tf.matmul
:请注意,可选的
a_is_sparse
和b_is_sparse
参数表示“a
(或b
)具有密集表示但其大量条目为零”,这会触发使用不同的乘法算法 .对于通过(可能是大的和分片的)密集矩阵乘法的稀疏矢量的特殊情况,并且矢量中的值是0或1,tf.nn.embedding_lookup运算符可能更合适 . This tutorial讨论何时可以使用嵌入以及如何更详细地调用运算符 .
对于稀疏矩阵(可能是大的和分片的)密集矩阵的特殊情况,tf.nn.embedding_lookup_sparse()可能是合适的 . 此函数接受一个或两个
tf.SparseTensor
对象,其中sp_ids
表示非零值,可选sp_weights
表示其值(否则默认为1) .最近,添加了
tf.sparse_tensor_dense_matmul(...)
,允许将稀疏矩阵乘以密集矩阵 .https://www.tensorflow.org/versions/r0.9/api_docs/python/sparse_ops.html#sparse_tensor_dense_matmul
https://github.com/tensorflow/tensorflow/issues/1241
看起来
不是为了两个乘法
SparseTensors
.a
和b
是Tensors
不是SparseTensors
. 我已经尝试过,它不适用于SparseTensors
.为了使答案更完整:
也存在:
https://www.tensorflow.org/api_docs/python/tf/sparse_matmul