-
1 votesanswersviews
keras模型类中的输入层以numpy数组或张量作为输入给出类型错误 . 那么正确的类型是什么?
如果不是一个numpy数组,如何给模型输入? def createmodel(): myInput = Input(shape=(96, 96, 3)) x = ZeroPadding2D(padding=(3, 3), input_shape=(96, 96, 3))(myInput) x = Conv2D(64, (7, 7), strides=(2, 2), name='conv1... -
18 votesanswersviews
Pytorch重塑张量维度
例如,我有1维向量的维度(5) . 我想将其重塑为2D矩阵(1,5) . 这是我如何用numpy做的 >>> import numpy as np >>> a = np.array([1,2,3,4,5]) >>> a.shape (5,) >>> a = np.reshape(a, (1,5)) >>> a... -
0 votesanswersviews
了解PyTorch Tensor Shape
我有一个关于我们在PyTorch中定义的张量形状的简单问题 . 让我们说如果我说: input = torch.randn(32, 35) 这将创建一个包含32行和35列的矩阵 . 现在我定义: input2 = torch.randn(1,2,32, 35) 关于新矩阵输入2的维数,我能说些什么?如何在此处定义行和列?我的意思是我有两个由张量包装的形状为32 * 35的矩阵? 我想更好地理解... -
5 votesanswersviews
ValueError:Model的输出张量必须是TensorFlow`Telay`的输出
我正在使用最后一层中的一些tensorflow函数(reduce_sum和l2_normalize)在Keras中构建模型,同时遇到此问题 . 我已经搜索了一个解决方案,但所有这些都与“Keras tensor”有关 . 这是我的代码: import tensorflow as tf; from tensorflow.python.keras import backend as K vgg16_... -
1 votesanswersviews
Tensorflow,如何通过1D向量中的相应元素乘以2D张量(矩阵)
我有一个形状 [batch x dim] 的二维矩阵 M ,我有一个形状为 [batch] 的矢量 V . 如何将矩阵中的每个列乘以V中的相应元素?那是: 我知道一个低效的numpy实现看起来像这样: import numpy as np M = np.random.uniform(size=(4, 10)) V = np.random.randint(4) def tst(M, V): ... -
0 votesanswersviews
在Tensorflow中随机切换预定数量的张量元素
我正在努力寻找这个难题的解决方案 . 我有: mask :形状为2d的张量=(batch_size,n)由1和0组成 n_neg :类型为int的1d张量=(batch_size,) 我想要做的是随机地从0到1更改每个掩码行中的元素,如n_neg的对应行所示 . 通过先前的构造,这将始终是可能的,即 mask 的第i行中的零的数量总是大于 n_neg [i] . 因为它只是利用ten... -
1 votesanswersviews
N-D张量矩阵乘以张量流
考虑我有一组向量 A ,我想将 A 中的每个向量与张量 T 相乘,最终得到一个张量 y ,其中每个切片矩阵是 A 与 T 的向量 v 的乘法结果: 如果 X 只包含一个向量,则以下代码有效(感谢matmul function for vector with tensor multiplication in tensorflow中的答案): tf.reduce_sum(tf.expand_dims(... -
88 votesanswersviews
Keras输入说明:input_shape,units,batch_size,dim等
对于任何Keras层( Layer 类),有人可以解释如何理解 input_shape , units , dim 等之间的区别? 例如,doc说 units 指定图层的输出形状 . 在神经网络的图像下面 hidden layer1 有4个单位 . 这是否直接转换为 Layer 对象的 units 属性?或者Keras中的 units 等于隐藏层中每个权重的形状乘以单位数? 简而言之,如何理解/可... -
0 votesanswersviews
tensorflow错误 - 您必须为占位符张量提供一个值'in'
我正在尝试为我的张量流预测实现队列但是得到以下错误 - 你必须使用dtype float和shape [1024,1024,3]为占位符张量'in'提供一个值 如果我使用feed_dict,尝试将feed_dict替换为队列,该程序工作正常 . 该程序基本上采用位置列表并将图像np数组传递给输入张量 . for each in positions: y,x = each... -
0 votesanswersviews
R中张量的doParallel性能
我需要对张量执行一些操作,我想让它并行 . 请考虑以下示例: # first part without doParallel N = 8192 M = 128 F = 64 ma <- function(x,n=5){filter(x,rep(1/n,n), sides=2)} m <- array(rexp(N*M*F), dim=c(N,M,F)) new_m <-... -
1 votesanswersviews
如何从张量流中的向量构造成对差的平方?
我有一个在TensorFlow中具有N维的1D向量, 如何构造成对平方差的和? 示例 Input Vector[1,2,3]Output 6Computed As (1-2)^2+(1-3)^2+(2-3)^2. 如果我输入为N-dim向量l,则输出应为sigma_ {i,j}((l_i-l_j)^ 2) . Added question :如果我有一个2d矩阵,并希望对矩阵的每一行执行相同... -
2 votesanswersviews
有没有办法在tensorflow中的tensordot操作中广播张量?
我想乘以以张量形式表示的堆叠矩阵 . tensor.shape == [2,5,7,6] 其中2和5是批量大小, tensor2.shape == [5,6,8] 其中5是批量大小 . 在numpy中,tensor2自动广播为[2,5,7,6]张量 所以我可以轻松使用 np.matmul(tensor,tensor2) 但在张量流中,会发生错误 . 我试过 tf.expand_dims(tens... -
0 votesanswersviews
通过TensorFlow中的索引和值操纵Tensor
Requirement 鉴于张量如下: SparseTensorValue(indices=array([[0, 0], [1, 0], [1, 1], [1, 2]]), values=array([2, 0, 2, 5]), dense_shape=array([2, 3])) 形状是2x3 | 2 na na | | ... -
6 votesanswersviews
Keras输入层和Tensorflow占位符之间的差异
我希望有人可以解释Keras中的输入层和Tensorflow中的占位符之间的差异(如果有的话)? 我调查的越多,两者看起来越相似,但到目前为止,我不相信100% . Here is what I have observed in favor of the claim that Input Layers and tf Placeholders are the same: 1)从keras.Input... -
4 votesanswersviews
在Keras(tf后端)返回标量点产品真的很难吗?
我已经在Keras issues上问了这个问题,但由于我在那里没有答案,所以我决定在这里试试运气 . 我正在使用自定义优化器运行mnist mlp example,暂时只是来自optimizers.py的SGD的副本,即 from __future__ import print_function import keras from keras.datasets import mnist from ... -
84 votesanswersviews
在PyTorch中保存训练模型的最佳方法?
我正在寻找在PyTorch中保存训练模型的替代方法 . 到目前为止,我找到了两种选择 . torch.save()保存模型,torch.load()加载模型 . model.state_dict()保存训练有素的模型,model.load_state_dict()加载保存的模型 . 我已经看到了这个方法,其中方法2推荐方法1 . 我的问题是,为什么第二种方法更受欢迎?是否因为torch... -
0 votesanswersviews
GPU利用率如何在神经网络训练的背景下工作?
我正在使用带有Deep Learning AMI(DLAMI)的AWS p3.2xlarge实例 . 这个实例有一个Tesla V100(640个Tensor核心和5,120个CUDA核心) . 当我运行PyTorch Seq2Seq Jupyter笔记本时,我注意到只使用了25%的GPU . 我使用以下命令 watch -n 1 nvidia-smi 监控GPU使用情况 . 我的问题是,是什么决... -
1 votesanswersviews
TensorFlow,Keras,Flask - 无法通过烧瓶运行我的keras模型作为web应用程序
我最近一直在研究我的大学项目的机器学习模型,它接受用户的 Health 因素并将其提供给CNN,CNN告诉用户未来几年他们患有糖尿病 . 我已经写了一个keras模型并将其保存为hdf5格式 . 我已经检查过它在本地运行,保存的模型做了很好的预测 . 我想通过Web应用程序运行这个模型,因此我在过去的几天里一直在研究瓶子 . 我已经为flask app.py和index.html编写了代码 app... -
0 votesanswersviews
Tensorflow形状推断静态RNN编译器错误
我正在研究针对手机摄像头图像优化的OCR软件 . 目前,每个300 x 1000 x 3(RGB)图像被重新格式化为900 x 1000 numpy阵列 . 我有一个更复杂的模型架构的计划,但是现在我只想让基线工作 . 我想通过在我生成的数据上训练静态RNN来开始 . 形式上,我在每个时间步t输入n_t达T个时间步,其中n_t是900矢量而T = 1000(类似于从左到右读取整个图像) . 以下是... -
0 votesanswersviews
Tensorflow中的成本敏感损失函数
我正在研究基于Tensorflow的成本敏感神经网络 . But because of the static graph structure of Tensorflow. Some NN structure couldn't be realized by myself. 我的损失函数(成本),成本矩阵和计算进度描述如下,我的目标是计算总成本,然后优化NN: 近似计算进度: y_ 是CNN的... -
2 votesanswersviews
Tensorflow:循环神经网络批量训练
我正在尝试在Tensorflow中实现RNN . 我正在编写自己的函数,而不是使用RNN单元来练习 . 问题是序列标记,输入大小是[32,48,900],其中32是批量大小,48是时间步长,900是词汇大小,这是一个热编码的向量 . 输出为[32,48,145],其中前两个维度与输入相同,但最后一个维度是输出词汇量大小(一个热点) . 基本上这是一个NLP标记问题 . 我收到以下错误: Inva... -
1 votesanswersviews
评估TensorFlow中多维输入之间的成对欧氏距离
我有两个形状的二维张量,比如m X d和n X d . 什么是优化的(即没有for循环)或评估这两个张量之间的成对欧氏距离的张量流方式,以便得到形状m X n的输出张量 . 我需要它来创建高斯核的平方项,以最终具有大小为m×n的协方差矩阵 . 等效的未经优化的numpy代码看起来像这样 difference_squared = np.zeros((x.shape[0], x_.shape[0])... -
1 votesanswersviews
为什么我必须在CNN中将一个图像重塑为[n,高度,宽度,通道]
我尝试将卷积层应用于形状 [256,256,3] 的图片a当我直接使用图像的张量时出错 conv1 = conv2d(input,W_conv1) +b_conv1 #<=== error error message: ValueError: Shape must be rank 4 but is rank 3 for 'Conv2D' (op: 'Conv2D') with inpu... -
31 votesanswersviews
TensorFlow中矩阵和向量的有效元素乘法
什么是倍增(逐元素)2D张量(矩阵)的最有效方法: x11 x12 .. x1N ... xM1 xM2 .. xMN 通过垂直向量: w1 ... wN 获得一个新的矩阵: x11*w1 x12*w2 ... x1N*wN ... xM1*w1 xM2*w2 ... xMN*wN 为了给出一些上下文,我们可以批量处理 M 数据样本,并且每个 N -element样本必须乘以存储在变量中的... -
1 votesanswersviews
如何在Tensorflow中使用None维切割张量
我想在“无”维度中切片张量 . 例如, tensor = tf.placeholder(tf.float32, shape=[None, None, 10], name="seq_holder") sliced_tensor = tensor[:,1:,:] # it works well! 但 # Assume that tensor's shape will be [3,... -
1 votesanswersviews
张量流中的张量形状
张量流中张量的形状是什么?它代表什么? 我读过this,我理解的是张量的形状是张量的每个维度的元素数,但在第一个代码片段中: [[1., 2., 3.], [4., 5., 6.]] # a rank 2 tensor; a matrix with shape [2, 3] 它说形状是2和3,但在张量的第一维有三个元素,而不是2,为什么? -
1 votesanswersviews
Tensorflow:张量的交叉索引切片
我有两个形状如下的张量: tensor1 => shape(10, 99, 106) tensor2 => shape(10, 99) tensor2 包含的值范围为 0 - 105 我希望用它来切割 tensor1 的最后一个维度并获得形状的 tensor3 tensor3 => shape(10, 99, 99) 我尝试过使用: tensor4 = tf.gather(t... -
26 votesanswersviews
TensorFlow:沿轴的最大张量
我的问题有两个相互关联的部分: 如何计算张量的某个轴的最大值?例如,如果我有 x = tf.constant([[1,220,55],[4,3,-1]]) 我想要类似的东西 x_max = tf.max(x, axis=1) print sess.run(x_max) output: [220,4] 我知道有一个 tf.argmax 和一个 tf.maximum ,但是没有沿着单个张量的... -
0 votesanswersviews
张量流中张量乘法向量的matmul函数
通常,当我们将维度 1*n 的向量 v 与维度 m*n*k 的张量 T 相乘时,我们期望获得维度 m*k / m*1*k 的矩阵/张量 . 这意味着我们的张量具有 m 矩阵切片,其维数为 n*k ,并且 v 与每个矩阵相乘,并且得到的向量堆叠在一起 . 为了在 tensorflow 中进行这种乘法,我想出了以下公式 . 我只是想知道是否有任何内置函数直接执行此标准乘法? T = tf.Vari... -
0 votesanswersviews
Pytorch广播两个张量的产品
我想增加两个张量,这是我得到的: A 张量形状 (20, 96, 110) B 张量形状 (20, 16, 110) 第一个索引是批量大小 . 我想要做的主要是从 B - (20, 1, 110) 中获取每个张量,例如,我希望将每个张量乘以 A 张量 (20, n, 110) . 所以产品将在最后:张量 AB 哪个形状是 (20, 96 * 16, 110) . 所以我想通...