-
0 votesanswersviews
在Tensorflow Object Detection API中绘制验证丢失
我正在使用Tensorflow Object Detection API来检测和定位图像中的一个类对象 . 出于这些目的,我使用预先训练的faster_rcnn_resnet50_coco_2018_01_28模型 . 我希望在训练模型后检测欠/过度拟合 . 我看到培训损失,但在评估Tensorboard后,只显示mAP和Precision指标而且没有损失 . 是否可以在Tensorboard上绘... -
1 votesanswersviews
'attributeError: ' Tensor ' object has no attribute ' _keras_history'在使用keras预训练VGG实现感知损失时
我正在尝试为视频输入的模型训练实现VGG感知损失 . 我实现了感知损失,如问题AttributeError: 'Tensor' object has no attribute '_keras_history'中的建议: 我的mainModel如下图所示:Graph of mainModel 输入大小为 (bathsize, frame_num, row, col, channel) . 我想得到... -
11 votesanswersviews
对数丢失输出大于1
我为欺诈领域的文档二进制分类准备了几个模型 . 我计算了所有型号的对数损失 . 我认为它主要是测量预测的置信度,并且对数损失应该在[0-1]的范围内 . 我认为,当结果 - 确定课程不足以进行评估时,它是分类中的一项重要措施 . 因此,如果两个模型具有非常接近的acc,召回和精度,但是具有较低的对数损失函数,则应该选择它,因为在决策过程中没有其他参数/度量(例如时间,成本) . 决策树的日志丢失为... -
1 votesanswersviews
尝试使用类权重修改keras中的categorical_crossentropy损失,但在训练期间不起作用
我正在keras中进行语义分段,并试图修改categorical_crossentropy损失,以便损失是类加权的 . 这是我的代码: def class_weighted_categorical_crossentropy(output, target, from_logits=False): """Categorical crossentropy between a... -
0 votesanswersviews
使用fit_generator进行Keras中的感知损失
我现在正在为keras模型实现感知损失 . (紧随其后Implement perceptual loss with pretrained VGG using keras) 但是我的训练数据集非常大,如果我尝试将所有数据创建为X_train并在以下代码中使用它来获取来自lossModel的感知信息,那么它将具有“MemoryError”: Y_train_lossModel = lossMode... -
2 votesanswersviews
如何计算多个图像的丢失,然后反向传播平均损失并更新网络权重
我正在做一个批量大小为1的任务,即每个批次只包含1个图像 . 所以我必须进行手动配料:当累计损失的数量达到一个数字时,平均损失然后做反向传播 . 我原来的代码是: real_batchsize = 200 for epoch in range(1, 5): net.train() total_loss = Variable(torch.zeros(1).cuda(), requ... -
0 votesanswersviews
Keras - 训练期间的负损失和val_loss
我在Keras有小型神经网络 . contextTrain, contextTest, utteranceTrain, utteranceTest = train_test_split(context, utterance, test_size=0.1, random_state=1) model = Sequential() model.add(LSTM(input_shape=contextT... -
0 votesanswersviews
使用keras训练花卉数据集上的vgg,验证损失不变
我正在使用keras在VGG网络上做一些小实验 . 我使用的数据集是花卉数据集,有5个类别,包括玫瑰,向日葵,蒲公英,郁金香和雏菊 . 有些事情我无法弄清楚:当我使用一个小的CNN网络(不是VGG,在下面的代码中)时,它快速收敛并且在仅仅约8个时期之后达到约75%的验证准确度 . 然后我切换到VGG网络(代码中注释掉的区域) . 网络的损失和准确性根本没有改变,输出如下: 大纪元1/50 402... -
0 votesanswersviews
使用Tensorflow后端的Keras LSTM RNN中令人费解的训练损失与纪元...行为的任何原因
我有一个RNN(下面的代码),有4个LSTM层,每个层有100个节点,1个Dense输出层 . 使用具有不同随机种子的RandomNormal初始化每个层权重 . 学习率= 0.00025,beta_1 = 0.9,beta_2 = 0.999,epsilon = 1e-08,0.0衰变 . Adam优化器,验证split = 0.1,批量大小16个epochs = 200个1811个训练样本,... -
1 votesanswersviews
Tensorflow中的CNN - 损失保持不变
我刚刚开始我的机器学习生涯,并希望创建简单的CNN来分类2种不同的叶子(属于2种不同的树种) . 在收集大量的叶子图片之前,我决定在Tensorflow中创建一个非常小的,简单的CNN,并仅在一个图像上进行训练,以检查代码是否正常 . 我将尺寸为256x256(x 3通道)的照片标准化为<0,1>,并创建了4层(2转和2密)网络 . 不幸的是,损失几乎总是从一开始就倾向于某个恒定值(通... -
-1 votesanswersviews
与Theano的Keras:损失减少但准确性没有变化
这是我的代码 . 我尝试构建一个VGG 11层网络,混合了ReLu和ELu激活以及许多关于内核和活动的规范化 . 结果真的令人困惑:代码处于第10个时代 . 我在火车和火箭上的损失从2000减少到1.5,但我对火车和火箭的损失保持不变,为50% . 有人可以向我解释一下吗? # VGG 11 from keras.regularizers import l2 from keras.layers.a... -
2 votesanswersviews
图像分类 . 在启动培训期间验证损失(v1)
我已经构建了一个包含4个类的小型自定义图像分类训练/ val数据集 . 训练数据集具有~110,000个图像 . 验证数据集具有~6000个图像 . 我遇到的问题是,在训练期间,训练准确性(以最后训练样本的平均准确度衡量)和训练损失都得到改善,而验证准确性和损失保持不变 . 这只发生在我使用初始和resnet模型时,如果我在相同的训练和验证数据上使用alexnet模型,验证损失和准确性提高 在我的... -
8 votesanswersviews
损失函数减小,但列车组的精度在张量流中不会改变
我正在尝试使用tensorflow使用深度卷积神经网络实现简单的性别分类器 . 我找到了这个model并实现了它 . def create_model_v2(data): cl1_desc = {'weights':weight_variable([7,7,3,96]), 'biases':bias_variable([96])} cl2_desc = {'weights':we... -
0 votesanswersviews
如何训练张量流中的csv数据?
我的训练集中我的神经网络的丢失正在增加,而我试图用我的优化器最小化它 . 我正在尝试用回归学习神经网络 . 它有327个输入值,2个隐藏层(256和128个节点)和3个值的输出层(它可以做出3个选择的估计奖励) . 我在除输出层之外的所有层上使用ReLu,并且我使用ADAM优化器 . 此外,我使用10个元素的训练集来简化事物(我也尝试使用更大的数据集) . 神经网络代码: import tenso... -
0 votesanswersviews
使用张量流对象检测API改变/波动SSD移动网络训练丢失
在使用张量流对象检测api训练SSD mobilenet时,我得到以下训练损失:SSD Mobilenet Training Loss(点击链接查看训练损失的图像)我很困惑为什么通过红色矩形标记的训练损失与其他人相比如此之低 . 还有,可能的原因是什么? -
1 votesanswersviews
RNN(keras)的欧几里德距离损失函数
我想将欧几里德距离设置为LSTM或RNN的损失函数 . 这个函数应该有什么输出:float,(batch_size)或(batch_size,timesteps)? 模型输入X_train是(n_samples,timesteps,data_dim) . Y_train具有相同的尺寸 . 示例代码: def euc_dist_keras(x, y): return K.sqrt(K.su... -
9 votesanswersviews
如何解释损失和准确性的增加
我使用tensorflow运行深度学习模型(CNN) . 在这个时代,我已经多次观察到损失和准确性都有所增加,或两者都有所减少 . 我的理解是两者总是成反比关系的 . 什么可能是同时增加或减少的情况 . -
5 votesanswersviews
嘈杂的训练损失
我正在训练基于编码器 - 解码器注意力的模型,批量大小为8.我不怀疑数据集中有太多噪声,但是这些示例来自几个不同的分布 . 我可以在火车损失曲线中看到很多噪音 . 平均后(.99),趋势很好 . 此外,模型的准确性也不错 . 我想了解这种形状的损失曲线可能是什么原因 -
2 votesanswersviews
张量流量损失不减少,重量梯度接近于零
最近,我正在研究面部对齐(面部标志检测),并想在开源助记符下降方法上做进一步的工作 . 根据代码,我对样本的导入做了一些修改 . 但是还有一些其他问题让我困惑了一段时间 . 首先,该模型如下 patches = _extract_patches_module.extract_patches(images, tf.constant(patch_shape), inits+dx) patches ... -
1 votesanswersviews
自定义丢失功能:对y_pred中的数据执行model.predict
我正在训练网络去噪图像,为此我使用的是CIFAR10数据集 . 我正在尝试生成自定义丢失函数,以便损失为mse / classification_accuracy . 鉴于我的网络接收32x32(噪声)图像作为输入并预测32x32(去噪)图像,我假设y_pred和Y_true将是32x32图像的数组 . 因此我的自定义丢失函数如下所示: def custom_loss(): def joi... -
7 votesanswersviews
Keras自定义丢失功能:访问当前输入模式
在Keras(使用Tensorflow后端),我的自定义丢失功能可以使用当前输入模式吗? 当前输入模式被定义为用于产生预测的输入向量 . 例如,请考虑以下事项: X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.33, random_state=42, shuffle=False) . 然后,当前输入模式是... -
4 votesanswersviews
Keras:如何在损失函数中使用图层的权重?
我正在keras中实现自定义丢失功能 . 该模型是 autoencoder . 第一层是嵌入层,它将大小为 (batch_size, sentence_length) 的输入嵌入到 (batch_size, sentence_length, embedding_dimension) 中 . 然后,模型将嵌入压缩为特定维度的向量,最后必须重建嵌入 (batch_size, sentence_len... -
-3 votesanswersviews
Keras - 损失和val_loss增加
我在Keras使用LSTM进行神经网络训练聊天机器人 . contextTrain, contextTest, utteranceTrain, utteranceTest = train_test_split(context, utterance, test_size=0.1, random_state=1) model = Sequential() model.add(LSTM(input_sh... -
1 votesanswersviews
关于torch.nn.CrossEntropyLoss参数形状
我正在学习pytorch,并将基于tensorflow(https://github.com/matthewearl/deep-anpr,http://matthewearl.github.io/2016/05/06/cnn-anpr/)的anpr项目作为练习,将其移植到pytorch平台 . 有一个问题,我使用nn.CrossEntropyLoss()作为损失函数:criterion = nn.... -
9 votesanswersviews
Tensorflow:成功恢复检查点后丢失重置
保存或恢复时没有错误 . 权重似乎已正确恢复 . 我正在尝试通过以下karpathy/min-char-rnn.py,sherjilozair/char-rnn-tensorflow和Tensorflow RNN tutorial构建我自己的最小字符级RNN . 我的脚本似乎按预期工作,除非我尝试恢复/恢复培训 . 如果我重新启动脚本并从检查点恢复然后恢复训练,则丢失将始终恢复,就像没有检查点一样... -
0 votesanswersviews
[MXNet]使用“步骤”学习率政策进行培训时的定期损失 Value
当训练深度CNN时,常见的方法是使用 SGD with momentum with a "step" learning rate policy (例如,在训练的不同阶段学习率设置为0.1,0.01,0.001 ..)但是在MXNet下使用此策略进行训练时遇到意外现象 . 那是定期训练损失值https://user-images.githubusercontent.com/267...