首页 文章

Statsmodels OLS回归:对数似然,使用和解释

提问于
浏览
0

我在statsmodels包中做了线性回归 . 在 R^2p 等的输出中,还有"log-likelihood" . 在文档中,这被描述为"The value of the likelihood function of the fitted model."我真的理解它正在做什么 .

阅读更多关于似然函数的内容,我仍然对这个“对数似然”值可能意味着或将被用于什么有非常模糊的想法 . 所以有几个问题:

  • 在线性回归的情况下,似然函数的值是否与参数的值相同(在这种情况下为 beta )?这似乎是根据导致等式12的以下推导:http://www.le.ac.uk/users/dsgp1/COURSES/MATHSTAT/13mlreg.pdf

  • 了解似然函数值的用途是什么?是否与具有相同响应和不同预测变量的其他回归模型进行比较?实际统计学家和科学家如何使用statsmodels吐出的对数似然值?

1 回答

  • 1

    可能性(以及通过扩展对数似然)是统计学中最重要的概念之一 . 它用于一切 .

    对于您的第一点,可能性与参数的值不同 . 可能性是指给定一组参数估计的整个模型的可能性 . 它是通过获取一组参数估计值,计算每个参数估计值的概率密度,然后将所有观测值的概率密度相乘得到的(这是从概率论中得出的,P(A和B)= P(A)P( B)如果A和B是独立的) . 在实践中,这对线性回归和推导显示的含义是,您采用一组参数估计(beta,sd),将它们插入到正常的pdf中,然后计算每组观察的密度y参数估计 . 然后,将它们相乘 . 通常,我们选择使用对数似然因为它更容易计算,因为我们可以求和(log(a * b)= log(a)log(b))而不是乘法,这在计算上更快 . 此外,我们倾向于最小化负对数似然(而不是最大化正数),因为优化器有时在最小化方面比在最大化方面更好 .

    为了回答你的第二点,log-likelihood几乎用于所有事情 . 这是我们用于查找大量模型的参数估计(最大似然估计)的基本数量 . 对于简单线性回归,这些估计结果与最小二乘法相同,但对于更复杂的模型,最小二乘法可能不起作用 . 它也用于计算AIC,它可用于比较具有相同响应和不同预测因子的模型(但是对参数数量进行处罚,因为更多参数=更好地适合,无论如何) .

相关问题