据我了解, Logistic RegressionNaive Bayes 的扩展名 . 假设,

X = (X_1, X_2........X_N); Y = {0, 1}, each X_i is i.i.d and 
the P(X_i|Y=y_k) is a Gaussian Distribution.

因此,为了创建 Linear Decision Surface ,我们假设每个pdf P(X_i|y_k) 具有与Y的值无关的方差( sigma ),即 sigma_(i,k) = sigma_i
(i --> X_i, k --> y_k) .

最后,我们最终学习了以下方程中代表线性决策曲面的系数( w_0, w_i ):

P(Y=0|X)/P(Y=1|X) = w_0 + sum_i(w_i*X_i)   (Linear Decision Surface)

即使线性回归系数( w_0, w_i )的推导涉及条件无关 X_i given Y 的假设,

  • 为什么说从训练数据中学习这些系数是来自条件indep的 somewhat more free . 假设与学习常规贝叶斯分布系数( mu, sigma )相比较?

我在跟踪this course here时遇到了这个问题 .

任何澄清/建议都会非常有帮助 . 谢谢