我一直坚持使用多标签分类(我必须说我对神经网络很新) . 首先,我将解释我正在努力训练的网络 . 我在网络中有1000个类,它们有多标签输出 . 对于每个训练示例,正输出的数量是相同的(即10),但是它们可以分配给1000个类中的任何一个 . 所以10个类有输出1而其余990有输出0.对于多标签分类,我使用'binary-cross entropy'作为成本函数,'sigmoid'作为激活函数 . 当我尝试0.5的这个规则作为1或0的截止时 . 所有这些都是0.我明白这是一个类不 balancer 问题 . 从这个link,我理解,我可能不得不创建额外的输出标签 . 遗憾的是,我还没有弄清楚如何将其纳入keras中的简单神经网络 .
nclasses = 1000
# if we wanted to maximize an imbalance problem!
#class_weight = {k: len(Y_train)/(nclasses*(Y_train==k).sum()) for k in range(nclasses)}
#print(class_weight)
# building neural network model
inp = Input(shape=[X_train.shape[1]])
x = Dense(5000, activation='relu')(inp)
x = Dense(4000, activation='relu')(x)
x = Dense(3000, activation='relu')(x)
x = Dense(2000, activation='relu')(x)
x = Dense(nclasses, activation='sigmoid')(x)
model = Model(inputs=[inp], outputs=[x])
print(model.summary())
adam=keras.optimizers.adam(lr=0.00001)
model.compile('adam', 'binary_crossentropy')
history = model.fit(
X_train, Y_train, batch_size=32, epochs=50,verbose=0,shuffle=False)
plt.plot(history.history['loss'])
#plt.plot(history.history['val_loss'])
plt.title('model loss')
plt.ylabel('loss')
plt.xlabel('epoch')
plt.legend(['train', 'test'], loc='upper left')
plt.show()
model.save('model2.h5')
任何人都可以帮我处理这里的代码,如果你能为这个问题提出一个好的“准确度”指标,我也非常感谢你们 .
非常感谢 :) :)
1 回答
我有类似的问题,遗憾的是大多数问题没有答案 . 尤其是 class 不 balancer 问题 .
在度量方面,有几种可能性:在我的情况下,我使用前1/2/3/4/5结果,并检查其中一个是否正确 . 因为在您的情况下,您总是拥有相同数量的标签= 1,您可以获得前10个结果并查看其中有多少是正确的,并将此结果与批量大小相比较 . 我没有发现将此算法包含为keras指标的可能性 . 相反,我写了一个回调,它在我的验证数据集上计算纪元结束时的指标 .
此外,如果您预测测试数据集的前n个结果,请查看每个类的预测次数 . Counter Class非常方便用于此目的 .
编辑:如果找到一个方法来包括类权重而不分割输出 . 你需要一个numpy 2d数组,其中包含有形状的权重[要预测的数字类别,2(背景和信号)] . 可以使用此函数计算这样的数组:
解决方案现在是构建您自己的二进制crossentropy损失函数,您可以在其中自己乘以权重:
权重[:,0]是一个包含所有背景权重和权重的数组[:,1]包含所有信号权重 .
剩下的就是将这种损失包含在编译函数中: