首页 文章
  • 0 votes
     answers
     views

    在Tensorflow中提供隐藏的张量

    我有一些 autoencoder . 该模型现在并不重要 . 假设该模型将一些图像作为输入并输出重建图像 . 训练结束后,我希望看到一个张量对输出的影响 . 此外,图像通过 FIFOQueue 输入 autoencoder . 因此,在运行以下代码时: reconstructed_image = sess.run([deconv_image], feed_dict={mu:my_vector}...
  • -1 votes
     answers
     views

    是否可以通过创建解码器来训练模型?

    我有香料混合物大小(12x12x91)的高光谱图像,其中12x12是空间维度,91是图像的深度 . 相应的输入是12x12x11维度的图像,其中11维基本上代表由混合物的比例组成的向量每个像素中的香料 . 例如,11维向量的值总和为1,其值为[0.5,0,0,0,0.5,0,0,0,0,0,0],[0,0,0,0.25, 0.5,0,0,0,0,0,0.25]我的像素值介于0和1之间 . 我想尝试...
  • 0 votes
     answers
     views

    矢量表示的时间序列在Keras有状态LSTM自动编码器

    我正在Keras中实现一个 LSTM autoencoder来获取我的时间序列数据的向量表示 . 我的系列很长,所以我使用有状态的LSTM . 我创建每个系列的非重叠窗口并将它们输入到自动编码器 . 见下面的代码 . 我不清楚如何获得时间序列的向量表示: 该系列的矢量表示是什么?是编码器隐藏状态还是编码器输出? 每个序列都被分解为窗口,当执行预测时,每窗口得到一个 [encoder_ou...
  • 0 votes
     answers
     views

    从Keras Autoencoder中的瓶颈层中提取特征

    过去几周我一直在问你自动编码器的问题 . 今天的问题如下;如何从瓶颈层获取功能? 我推荐过这个网站 . https://github.com/keras-team/keras/issues/2495 我收到的错误信息在这里显示; UserWarning:更新您对Keras 2 API的 Model 调用: Model(inputs=[<tf.Tenso..., outputs=[<t...
  • 0 votes
     answers
     views

    如何加速自动编码器用于在python的theano包中编写的文本数据?

    我试图调整autoencoder脚本here来处理文本数据 . 此代码使用MNIST数据集作为训练数据 . 该数据采用numpy 2d数组的形式 . 我的数据是一个大约100,000个实例的csr稀疏矩阵,具有大约50,000个特征 . 矩阵是使用sklearn的tfidfvectorizer来拟合和转换文本数据的结果 . 当我使用稀疏矩阵时,我修改代码以使用theano.sparse包来表示我的...
  • 0 votes
     answers
     views

    如何在Matlab2017b中使用autoencoder进行降维?

    我希望通过在Matlab 2017中使用三个自动编码器来降低尺寸,我的数据大小为400 * 144;意味着400个样本具有144个特征 . 通过隐藏尺寸72运行第一个自动编码器后 . 下一个自动编码器的输入是什么?
  • 0 votes
     answers
     views

    使用自动编码器计算感知损失而不是图像分类器(VGG-16)

    对于生成对抗网络的培训我正在使用Perceptual_Loss函数 . Perceptual_Loss是用于在识别图像的特征之后找出两个图像是否彼此相似的函数 . 如上所述here我们可以使用图像分类器和自动编码器来识别特征 . 大多数开发人员使用 VGG16 作为图像分类器来计算Perceptual_Loss . 我想使用预先训练过的自动编码器(我自己训练) . 使用预先训练的自动编码器权重我...
  • 0 votes
     answers
     views

    可视化堆叠自动编码器的权重

    我训练了一个堆叠的自动编码器 . 第一隐藏层的权重维度是(SizeHiddenLayer1 x SizeInputLayer),因此该权重的可视化很简单,因为输入数据的大小和该权重的列是相同的 . 但是第二个隐藏层的权重维度是(SizeHiddenLayer2 x SizeHiddenLayer1) . 任何人都可以帮我看这个重量吗? (在Python或Matlab中)
  • 6 votes
     answers
     views

    用于keras中可变大小图像的完全卷积自动编码器

    我想 Build 一个卷积自动编码器,其中输入的大小不是恒定的 . 我这样做是通过堆叠conv-pool层直到我到达编码层,然后使用upsample-conv层进行反向操作 . 问题是无论我使用什么设置,我都无法在输出层中获得与输入层完全相同的大小 . 原因是UpSampling层(比如说(2,2)大小),输入的大小加倍,所以我不能得到奇怪的维度 . 有没有办法将给定图层的输出维度与单个样本的前一...
  • 0 votes
     answers
     views

    CLDNN中的维数减少(张量流)

    我正在尝试使用tensorflow编写CLDNN的实现,就像this scheme中的那个 . 我遇到了降维层的问题 . 据我所知,它是由几个堆叠的限制玻尔兹曼机(RBMs)制成,并像自动编码器一样工作 . 该层的解码器部分仅用于训练编码器以减小井尺寸 . 这意味着您希望将编码器的输出“插入”下一层的输入 . 我可以定义一个损失函数来训练自动编码器(通过比较来自解码输出的输入),以及另一个将训练整...
  • 0 votes
     answers
     views

    用于Matlab中一维数据的简单去噪自动编码器

    我正在尝试使用Matlab为1D数据设置一个简单的去噪自动编码器 . 由于目前没有专门用于1D数据的输入层,因此必须使用 imageInputLayer() 函数: function net = DenoisingAutoencoder(data) [N, n] = size(data); %setting up input X = zeros([n 1 1 N]); for i = 1:n ...
  • 0 votes
     answers
     views

    张量流实现稀疏自动编码器

    我正在尝试实现如下的简单自动编码器 . 输入要素的数量是2,我想 Build 稀疏自动编码器以减少尺寸为1.我选择的节点数为2(输入),8(隐藏),1(缩减特征),8(隐藏), 2(输出)比仅使用(2,1,2)节点增加一些复杂性 . 样本数N约为10000.“DATA”只是一个包含整数值的2x10000矩阵 . import tensorflow as tf x = tf.placeholder...
  • 1 votes
     answers
     views

    卷积自动编码器和降维

    我对卷积自动编码器(CAE)中降维前的卷积步骤的重要性提出了疑问 . 在我看到的许多实现中,CAE使用"flatten"层将最后一个卷积层(具有维度:H,W,C)转换为经典的一维层(dim:H x W x C),然后将一些完全连接的层转换为生成自动编码器的"code" . 但是,我注意到大多数时候,生成的扁平层实际上比输入层的尺寸更大!因此,我有直觉认为那些...
  • 0 votes
     answers
     views

    使用自动编码器来降低维度

    这是我使用PyTorch编写的自动编码器版本: import warnings warnings.filterwarnings('ignore') import numpy as np import matplotlib.pyplot as plt import pandas as pd from matplotlib import pyplot as plt from sklearn impor...
  • 0 votes
     answers
     views

    如何在Matlab中创建“去噪自动编码器”?

    我知道Matlab有函数 TrainAutoencoder(input, settings) 来创建和训练自动编码器 . 结果能够运行“ Encode " and " Decode ”这两个函数 . 但这仅适用于普通自动编码器的情况 . 如果你想拥有 denoising autoencoder 怎么办?我搜索并找到了一些示例代码,他们使用"Network&quot...
  • 1 votes
     answers
     views

    初始状态lstm编码器解码器keras

    我正在尝试构建一个LSTM编码器解码器,我的主要目标是解码器的初始状态与编码器相同 . 我从here找到了下面的代码并尝试将其附加到我的案例中 . 我有一个形状的数据(1000,20,1) . 我希望编码器解码器能够在输出中输入我的输入 . 我不知道如何纠正它正在运行的代码,即使我理解错误 . 当我尝试运行它时,我收到以下错误: The model expects 2 input arrays, ...
  • -1 votes
     answers
     views

    Tensorflow Keras在自动编码器中单独使用编码器和解码器

    我在张量流中搞乱了Keras api,试图实现一个自动编码器 . 顺序模型有效,但我希望能够分别使用编码器(前两层)和解码器(最后两层),但使用我已训练过的模型的权重 . 有没有办法做到这一点?我必须制作自定义模型吗? model = keras.Sequential() model.add(encoder_1) model.add(leaky_relu) model.add(encoder_2)...
  • 1 votes
     answers
     views

    使用反向传播的自动编码器

    我正在尝试使用this资源实现自动编码器,该资源实现了反向传播算法 . 我在那里使用了相同的前馈算法但是它给了我一个很大的错误 . 在Autoencoders中,sigmoid函数应用于隐藏进行编码,再次应用于输出进行解码 . def feedForwardPropagation(network, row, output=False): currentInput = row if not outp...
  • 2 votes
     answers
     views

    Keras自动编码器的准确度/损耗不会改变

    这是我的代码: AE_0 = Sequential() encoder = Sequential([Dense(output_dim=100, input_dim=256, activation='sigmoid')]) decoder = Sequential([Dense(output_dim=256, input_dim=100, activation='linear')]) AE_0....
  • 8 votes
     answers
     views

    我应该使用损失或准确性作为早期停止指标吗?

    我正在学习和试验神经网络,并希望得到更多有经验的人对以下问题的意见: 当我在Keras中训练一个Autoencoder('mean_squared_error'损失函数和SGD优化器)时,验证损失逐渐减少 . 并且验证准确性正在提高 . 到现在为止还挺好 . 然而,过了一段时间,损失不断减少,但准确性突然回落到低得多的低水平 . 它是'normal'或预期的行为,准确度上升非常快并保持高位突然...
  • 3 votes
     answers
     views

    如何拆分卷积自动编码器?

    我已经编译了一个自动编码器(下面是完整的代码),在训练之后我想将它分成两个独立的模型:编码器(层e1 ...编码)和解码器(所有其他层),在其中提供手动修改的图像已由解码器编码 . 我成功地创建了一个编码器作为一个单独的模型: encoder = Model(input_img, autoencoder.layers[6].output) 但是当我尝试制作解码器时,同样的方法失败了: encod...
  • 0 votes
     answers
     views

    使用keras但得到错误AttributeError:'Tensor'对象没有属性'_keras_history'

    我目前正在使用keras实现自动编码器以便对图像进行上采样 . 我的想法是我想使用相邻图像的信息来创建一个上采样的中心图像 . 垂直和水平邻居都应共享编码器中的权重 . 在瓶颈处,连接垂直和水平图像块并开始解码 . 这是代码: from keras.models import Model from keras.layers import Input, Concatenate from keras....
  • 2 votes
     answers
     views

    具有0个隐藏单元的Tensorflow Autoencoder可以学到一些东西

    我目前正在使用简单的Autoencoders运行一些测试 . 我自己完全在Tensorflow中编写了一个Autoencoder,另外复制并粘贴了这个keras博客条目中的代码:https://blog.keras.io/building-autoencoders-in-keras.html(只是为了拥有不同的Autoencoder实现) . 当我测试不同的架构时,我开始在这一层中使用单层和几个隐...
  • 2 votes
     answers
     views

    如何使用堆叠自动编码器进行预训练

    假设我希望使用堆叠自动编码器作为预训练步骤 . 假设我的全自动编码器是40-30-10-30-40 . 我的步骤是: 使用输入和输出层中的原始40个特征数据集训练40-30-40 . 仅使用上述40-30编码器的训练编码器部分,导出原始40个特征的新30特征表示 . 使用输入和输出层中的新30特征数据集(在步骤2中导出)训练30-10-30 . 从步骤1,40-30中取出训练好的编...
  • 0 votes
     answers
     views

    使用Stacked Autoencoders进行彩色图像分类

    我想使用Stacked Autoencoders进行彩色图像分类 . 在matlab网站上给出的用于MNIST数据集的图像分类的示例仅用于仅具有一个颜色通道的黑白图像 . 但对于彩色图像,它有3个颜色通道,RGB . 因此,我应该对彩色图像进行预处理,因为彩色图像是3维矩阵,以便堆叠自动编码器工作 . 我只需要这个概念,而不是具体的详细答案 . matlab示例的URL - https://i...
  • 3 votes
     answers
     views

    如果要绑定权重,如何处理自动编码器/解码器中的偏差

    我理解如何在自动编码器/解码器中绑定权重,即在解码器中使用编码器权重的转置 . 但是,目前还不清楚如何处理这些偏见 . 例如,如果 Encoder:4功能 - > 3隐藏 - > 2隐藏 Decoder:2隐藏 - > 3隐藏 - > 4个功能' 由于图层的偏差是下一层中的节点数,因此它们不对称 . 在上面的例子中,偏差是3,2,3,4 然而,由于编码器和解码器是对称的,但...
  • 0 votes
     answers
     views

    从Matlab中的Stacked Autoencoder获取中间输出

    我有一个堆叠的自动编码器网络,我想获得调谐网络的中间输出 . 我的输入数据是1620 x 3000,我的目标数据是12 x 3000.我的测试数据是1620 x 500.我有第一层有400个神经元,第二层有50个神经元,而softmax层到12个 . 我想要调谐后得到第二个自动编码器(50个输出)的输出 . ann1 = trainAutoencoder(xTrain, 400, ... ...
  • 1 votes
     answers
     views

    无法使此自动编码器网络正常运行(使用卷积和maxpool图层)

    Autoencoder网络似乎比普通的分类器MLP网络更棘手 . 在使用Lasagne进行多次尝试后,我在重建输出中得到的所有内容最接近于MNIST数据库的所有图像的模糊平均值,而不区分输入数字实际上是什么 . 我选择的网络结构是以下级联层: 输入图层(28x28) 2D卷积层,滤波器大小7x7 Max Pooling图层,尺寸3x3,步幅2x2 密集(完全连接)展平层,10个单位...
  • 8 votes
     answers
     views

    Python / Keras / Theano错误的自动编码器维度

    我正在尝试关注Deep Autoencoder Keras example . 我'm getting a dimension mismatch exception, but for the life of me, I can'弄清楚原因 . 当我只使用一个编码维度时它可以工作,但是当我堆叠它们时却不行 . 例外:输入0与图层dense_18不兼容:预期shape =(None,128),fou...
  • 2 votes
     answers
     views

    在自动编码器中何时使用扩张卷积来获取时间数据?

    我正在尝试使用Keras中的1D卷积构建时间序列数据的编码器 - 解码器模型 . 考虑这个简单的模型: inputs = Input(shape = (timesteps, input_dim)) t = Conv1D(16, kernel_size=3, padding='same')(inputs) encoded = Conv1D(16, kernel_size=2, strides=2)(...

热门问题