首页 文章

为什么交互属性可以提高线性回归的性能

提问于
浏览
4

我正在使用线性回归模型研究Weka . 我意识到,通过将我的数据集中的两个相关属性相乘并将其作为额外属性添加,我可以提高线性回归的性能 . 但是,我无法理解为什么!为什么我的两个相关属性相乘会产生更好的结果 .

1 回答

  • 1

    这表示您在原始输入中的功能是线性的,但它在他们的产品中 . 实际上,你已经彻底改造了多变量polynomial regression .

    例如,假设您接近的函数具有y = a×x²b×x c的形式 . 在x上拟合的线性回归模型不会给出好的结果,但是当你同时输入x²和x时,它可以学习正确的a和b .

    在多变量设置中也是如此:x1和x2中的函数可能不是线性的,但它可能是x1×x2,你称之为"interaction attribute" . (我知道这些是跨产品功能或功能连接;它们是为什么SVM比线性模型更强大的学习者 . )

相关问题