我使用sklearn.svm.SVC(kernel ='rbf')来分类图像数据,这是非常好的工作 . 线性SVM通过在两个类之间放置超平面来对数据进行分类 . 在rbf SVM的情况下,平面将处于无限维度 . 对于任何测试点,我们可以使用预测来检查它属于哪个 . 在线性情况下,我们可以通过获得超平面的方程式来手动获得预测 . 我们如何在rbf SVM案例中做到这一点 . 在rbf SVM案例中如何准确预测 .
首先是Fisrt事情
每当我们分类时,我们都应该考虑:
可以为高维特征空间学习分类器,而无需将点映射到高维空间 .
数据在高维空间中可以线性分离,但在原始特征空间中不能线性分离
内核可以用于SVM,因为双重形式的标量产品,但也可以在其他地方使用 - 它们与SVM形式主义无关 .
内核也适用于非向量的对象
例如,我将放置一些使用过的内核 .
对于具有高斯内核的SVM分类器,我们会得到类似的东西:
正如您注意到支持向量被替换,因此我们可以根据结果改变它,例如,考虑两个特征及其着色点:
并设置一些值:
现在
或
现在无限发挥时会发生什么:
然后:
adaBoost如何使用数据集http://cseweb.ucsd.edu/~yfreund/adaboost/
如果您愿意,可以通过Ian Nabney测试.NETLAB ML Matlab软件here
以下是SVM的更多来源
Christopher M. Bishop,"Pattern Recognition and Machine Learning",Springer(2006),ISBN 0-38-731073-8 .
Hastie,Tibshirani,Friedman,"Elements of Statistical Learning",第二版,Springer,2009 . Pdf在线提供 .
Ian H. Witten和Eibe Frank,"Data Mining: Practical Machine Learning Tools and Techniques",第二版,2005年 .
David MacKay,"Information Theory, Inference, and Learning Algorithms"哪个免费在线提供!
Tom Mitchell,"Machine Learning",McGraw Hill,1997
1 回答
首先是Fisrt事情
每当我们分类时,我们都应该考虑:
可以为高维特征空间学习分类器,而无需将点映射到高维空间 .
数据在高维空间中可以线性分离,但在原始特征空间中不能线性分离
内核可以用于SVM,因为双重形式的标量产品,但也可以在其他地方使用 - 它们与SVM形式主义无关 .
内核也适用于非向量的对象
例如,我将放置一些使用过的内核 .
对于具有高斯内核的SVM分类器,我们会得到类似的东西:
正如您注意到支持向量被替换,因此我们可以根据结果改变它,例如,考虑两个特征及其着色点:
并设置一些值:
现在
或
现在无限发挥时会发生什么:
然后:
adaBoost如何使用数据集http://cseweb.ucsd.edu/~yfreund/adaboost/
如果您愿意,可以通过Ian Nabney测试.NETLAB ML Matlab软件here
以下是SVM的更多来源
Christopher M. Bishop,"Pattern Recognition and Machine Learning",Springer(2006),ISBN 0-38-731073-8 .
Hastie,Tibshirani,Friedman,"Elements of Statistical Learning",第二版,Springer,2009 . Pdf在线提供 .
Ian H. Witten和Eibe Frank,"Data Mining: Practical Machine Learning Tools and Techniques",第二版,2005年 .
David MacKay,"Information Theory, Inference, and Learning Algorithms"哪个免费在线提供!
Tom Mitchell,"Machine Learning",McGraw Hill,1997