-
0 votesanswersviews
数字范围是否会明显影响神经网络中此特征的权重?
我的神经网络有很多功能 . 其中一些的值范围在0到1之间 . 其中一些的范围非常大,从0到100 . 我在tensorflow中没有任何权重设置的情况下连接它们并将它们传递给LR层 . 我想问的是,对于分类任务,特征范围本身是否会影响LR层的权重或说话权?也就是说,具有巨大 Value 范围的功能,可以在网络中产生更大的影响力?如果是,我该怎么做才能修改神经网络?谢谢 . -
1 votesanswersviews
来自sklearn分类器的概率预测(predict_proba)包括召回/精确度
我使用 sklearn.linear_model.LogisticRegression 构建了一个分类器,当我进行新的预测时,我也输出了 predict_proba() 概率预测 . 我的问题是,这些预测是否包含模型拟合优度的度量标准?例如,我喜欢输出 metrics.classification_report ,并且正在考虑使用召回作为贝叶斯算子来评估 predict_proba() 的概率输出... -
0 votesanswersviews
使用多重估算数据的二元逻辑回归
我一直在尝试使用R(即MICE)中可用的选项来进行二元逻辑回归分析(连续和分类预测变量之间的相互作用) . 但是,我正在努力对多重插补数据进行这种简单的分析(细节和可重复的例子here) . 具体来说,我无法找到一种方法来汇集输出的每个方面,包括使用Mice的GLM函数等效的“对数似然比” . 为了避免先前帖子的冗余,我正在寻找R包或其他软件的任何建议,这些建议可以使得容易/可能汇集输出的所有基本... -
0 votesanswersviews
Python Logistic回归完美分离错误
我的问题是用逻辑模型完美分离,测试两个二元因子及其在因变量上的相互作用 . 当我不包括交互项时,模型可以工作,当我包含我得到的交互项时 “PerfectSeparationError:检测到完美分离,结果不可用” 对逻辑回归的完美分离已经有了一个问题,但这个问题特别适用于模型中与交互项完美分离的错误 . 这是我的数据Dataframe 我的代码: endog_cols = df.columns[1... -
3 votesanswersviews
为什么在逻辑回归中对roc_auc进行评分时,GridSearchCV不会给出具有最高AUC的C.
如果这很明显,我是新来的,所以道歉 . lr = LogisticRegression(penalty = 'l1') parameters = {'C': [0.001, 0.01, 0.1, 1, 10, 100, 1000]} clf = GridSearchCV(lr, parameters, scoring='roc_auc', cv = 5) clf.fit(X, Y) print c... -
0 votesanswersviews
使用GridSearchCV进行逻辑回归
我正在试图找出如何使用GridSearchCV进行线性回归,但是我得到了一个令人讨厌的错误,如果这是一个估算器问题对GridSearchCV不正确或者如果这是我的“LogisticRegression”,我就不会得到设置不正确 . 我让它适用于随机森林和knn,但我坚持这个实现 . 我使用一个小数据集,这就是我想使用liblinear的原因(即使它是默认情况下,如文档中所述) . tuned_pa... -
11 votesanswersviews
Scikit:使用cross_val_score函数计算精度和召回率
我正在使用scikit对垃圾邮件/火腿数据进行逻辑回归 . X_train是我的训练数据和y_train标签('垃圾邮件'或'火腿'),我训练我的LogisticRegression: classifier = LogisticRegression() classifier.fit(X_train, y_train) 如果我想获得10倍交叉验证的准确度,我只想写: accuracy = cro... -
0 votesanswersviews
scikit如何学习逻辑回归分类或回归
我认为逻辑回归可以用于回归(获得0和1之间的数字,例如使用逻辑回归来预测0和1之间的概率)和分类 . 问题是,在我们提供培训数据和目标之后,逻辑回归似乎可以自动判断我们是在进行回归还是进行分类? 例如,在下面的示例代码中,logistic回归计算出我们只需要输出为3类 0, 1, 2 之一,而不是 0 和 2 之间的任何数字?只是好奇逻辑回归如何自动判断出它是回归(输出是连续范围)还是分类(输出是... -
0 votesanswersviews
python中的逻辑回归 . 概率阈值
因此,我正在使用逻辑回归算法来解决分类问题,并且我获得了类“1”的测试集的所有预测 . 该集非常不 balancer ,因为它有超过200k输入,而或多或少92%来自“1”级 . 如果P(Y = 1 | X)> 0.5,则逻辑回归通常将输入分类为类“1” . 因此,由于测试集中的所有观察都被分类为1类,我认为可能有一种方法可以改变这个阈值并将其设置为例如0.75,这样只有P(Y = 1 | ... -
3 votesanswersviews
在sklearn中使用交叉验证和AUC-ROC作为逻辑回归模型
我正在使用 sklearn 包来构建逻辑回归模型,然后对其进行评估 . 具体来说,我想使用交叉验证,但无法通过 cross_val_score 函数找出正确的方法 . 根据documentation和我看到的一些examples,我需要传递函数模型,特征,结果和评分方法 . 但是,AUC在这里没有采取正确的方法吗?这个函数有 'roc_auc' 作为一种可能的评分方法,所以我和它兼容,我只是不确定... -
0 votesanswersviews
为什么我的逻辑回归总是预测值接近0
我试图用L1正则化写出逻辑回归 . 我使用对数似然的随机梯度上升作为成本函数 . 但我的函数总是给出接近0的值 . 我的数据集来自http://archive.ics.uci.edu/ml/datasets/HTRU2 这是一个例子,其中y_hat是预测函数的输出,y [i]是目标的真值: y_hat: [ 0.08707034] y[i]: 0 y_hat - y[i]: [ 0.0870703... -
-1 votesanswersviews
Python SK学习:从sk学习更新参数向“SGDClassifier”提供几组数据是否可行
由于我的软件限制和随机梯度下降(SGD)Logistic-Regression的供给,我想将我的数据集拆分成一点点 . 是否可以在sk learn的“SGDClassifier”课程中完成此操作 . 我浏览了文档,但看起来它没有提及它,也没有例子 . 所以,我想知道之前必须自己实现它 . 任何想法将不胜感激 . 如果你能指出我提到这个的文档,我会再次感恩 . -
0 votesanswersviews
sklearn SGDClassifier fit()vs partial_fit()
我对 fit() 的 fit() 和 partial_fit() 方法感到困惑 . 文档说明两者,"Fit linear model with Stochastic Gradient Descent." . 我对随机梯度下降的了解是,它需要一个(或一小部分整体)训练样例来在一次迭代中更新模型的参数 . 并且梯度下降使用每次迭代中的整个数据集 . 我想用逻辑回归训练模型 . 我想... -
4 votesanswersviews
获得较低的ROC AUC分数,但准确度较高
在flight delay dataset的版本中使用 LogisticRegression 中的 LogisticRegression 类 . 我使用 pandas 来选择一些列: df = df[["MONTH", "DAY_OF_MONTH", "DAY_OF_WEEK", "ORIGIN", "DES... -
2 votesanswersviews
Logistic回归 - 带分类变量的多类分类
我目前正在使用具有分类和连续功能的数据框,如下所示: https://ibb.co/bKJwSQ 我想运行逻辑回归来预测目标值 . 在这种情况下,目标值是种族,可以是“A”,“W”,“B”,“H”,“N”或“O”,代表“亚洲人”,“白人”,“黑人” “,”西班牙裔“,”美洲原住民“或”其他“ . 我在一个名为“dummies”的新数据框中将所有功能转换为虚拟变量(“race”列除外) . 为了训练... -
0 votesanswersviews
使用Python中的Logistic回归的预测向量的准确性分数
我正在使用Logistic回归方法进行多类分类 . 基本上我知道如果我使用accuracy_score()函数(例如,来自sklearn库),它会计算出不同值的准确性,如下所示: y_pred = [0, 2, 1, 3] y_true = [0, 1, 2, 3] accuracy_score(y_true, y_pred) 0.5 但我希望为每个标签(来自predict_proba)获得顶级... -
0 votesanswersviews
使用Tensorflow的逻辑回归进行二进制分类
我只是一个ML课程,我正试图在tensorflow上变得更好 . 为此,我购买了Nishant Shukhla(ML with tensorflow)的书,并试图用不同的数据集运行2特征示例 . 使用书中的假数据集,我的代码运行正常 . 但是,对于我在ML课程中使用的数据,代码拒绝收敛 . 它的学习率非常小,但确实会收敛,但学到的权重是错误的 . 还附加要素数据的图 . 它不应该是特征缩放问题,因... -
4 votesanswersviews
关于scikit-learn中LogisticRegression的GridSearchCV
我试图通过使用交叉验证的网格参数搜索来优化scikit-learn中的逻辑回归函数,但我似乎无法实现它 . 它说Logistic回归并没有实现get_params(),而是它所说的文档 . 我怎样才能在我的基本事实上优化这个功能? >>> param_grid = {'C': [0.001, 0.01, 0.1, 1, 10, 100, 1000] } >>> ... -
1 votesanswersviews
使用sklearn LogisticRegression和RandomForest模型的Predict()总是预测少数类(1)
我正在 Build 一个Logistic回归模型来预测一个事务是否有效(1)或不是(0),只有150个观察数据集 . 我的数据在两个类之间分配如下: 106观测值为0(无效) 44个观测值为1(有效) 我正在使用两个预测器(均为数值) . 尽管数据大部分为0,但我的分类器仅为我的测试集中的每个事务预测1,即使它们中的大多数应为0.分类器从不为任何观察输出0 . 这是我的整个代码: # ... -
2 votesanswersviews
logistic回归/二项式的glmnet错误
对于Logistic回归拟合,我在尝试使用family =“binomial”调整glmnet()时出现此错误: > data <- read.csv("DAFMM_HE16_matrix.csv", header=F) > x <- as.data.frame(data[,1:3]) > x <- model.matrix(~.,data=... -
0 votesanswersviews
在插入符号包中使用glmnet运行elasticnet逻辑回归时无法获得概率预测
我注意到当使用glmnet包在插入符号中运行惩罚逻辑回归时,模型预测被重新分类为0或1个结果: mydata <- read.csv("http://www.ats.ucla.edu/stat/data/binary.csv") train_control <- trainControl(method="cv", number=10, saveP... -
0 votesanswersviews
将 Logistic 回归损失函数转换为 Softmax
我目前有一个程序,该程序采用特征向量和分类,并将其应用于已知的权重向量,以使用 Logistic 回归生成损失梯度。这是该代码: double[] grad = new double[featureSize]; //dot product w*x double dot = 0; for (int j = 0; j < featureSize;... -
0 votesanswersviews
机器学习(Python) - 不寻常的准确度99.9%
我最近在kaggle(Shape:1646801,150)的数据集上构建了一个预测模型(Logistic回归) . 然而,在简单的预处理之后,我得到了非常不寻常的99.9%的准确度 . 数据:https://www.kaggle.com/wordsforthewise/lending-club 迈出了一步: Mapped 不同的 loan_status ('Fully_Paid','Defa... -
0 votesanswersviews
如何在不 balancer 数据中解释和研究完美的准确度,精度,召回率,F1和AUC(我不信任)
我有一个很不 balancer 的多标记数据集 . 结果出现意想不到的结果 . 正如预期的那样,使用逻辑回归分类器,具有更高频率的标签实现了合理的f1分数和auc分数(即:0.6-0.7),并且那些数据中表示小于10%的标签预期为f-1和0.5的0 . 对于auc-score . 但是当我使用SVC和Naive Bayes分类器运行相同的东西时,这些低频标签中的一些(例如:7000个样本中的一个,... -
44 votesanswersviews
如何选择张量流中的交叉熵损失?
分类问题,例如逻辑回归或多项逻辑回归,可以优化损失 . 通常,交叉熵层遵循 softmax 层,这产生概率分布 . 在tensorflow中,至少有一个 dozen of different cross-entropy loss functions : tf.losses.softmax_cross_entropy tf.losses.sparse_softmax_cross_entrop... -
2 votesanswersviews
'vmmin'中的drc :: optim初始值不是有限的
我想为 drc R 包中的以下数据拟合 log-logistic 回归 . 但是,我的代码抛出以下错误 . df1 <- structure(list(Temp = c(15L, 15L, 15L, 15L, 15L, 15L, 15L, 15L, 15L, 20L, 20L, 20L, 20L, 20L, 20L, 25L, 25L, 25L, 25L, 30L, 3... -
6 votesanswersviews
Scikit F-score指标错误
我试图使用_2605554预测一组标签_我的数据确实是不 balancer 的(比'1'标签还要多'0')所以我必须在交叉验证步骤中使用F1 score metric来结果"balance" . [Input] X_training, y_training, X_test, y_test = generate_datasets(df_X, df_y, 0.6) logistic... -
0 votesanswersviews
当回归R中存在一个预测变量时,提取预测变量名称
所以我目前正在运行逻辑回归,并试图提取各个预测变量的摘要信息,而不包括如下截距: zscores1<-summary(step1)$coefficients[-1,"z value"] > zscores1 i3 i2 i1 0.5011802 2.7834229 2.0239975 Step1是这里感兴趣的模型,用于提供上下文... -
1 votesanswersviews
matlab环境下的回归算法分析
嗨,我想对回归技术进行全面分析,因此将继续编辑这个问题 . 我正在尝试使用Matlab中提供的技术来解决回归问题 . 理想情况下,我想看看诸如此类的技巧 线性回归 Logistic回归 贝叶斯回归 支持向量回归 回归的高斯过程 问题陈述 给定数据 X 和 Y ,其大小为 333x128 和 333x1 ,其中 333 是训练示例的数量, 128 是要素尺寸 . 我正在解决的... -
1 votesanswersviews
当一个或多个预测变量保持不变时,绘制来自二元逻辑回归的估计概率
我是一名生物学研究生,在下一期问题上我已经将我的车轮旋转了大约30个小时 . 总之,我想从我生成的glm二元逻辑回归模型中绘制估计概率的数字 . 我已经完成了模型选择,验证等工作,现在我只是想制作数字 . 我没有问题为我选择的模型绘制概率曲线,但我真正感兴趣的是产生一个数字,当另一个预测变量保持不变时,该数字显示预测变量的二元结果的概率 . 我无法弄清楚如何将此常量值仅分配给其中一个预测变量并绘制...