这一节讲的是核化的SVM,Andrew Ng的那篇讲义也讲过,讲的也不错。
首先讲的是kernel trick,为了简化将低维特征映射高维特征后的计算,使用了核技巧。讲义中还讲了核函数的判定,即什么样的函数K能使用kernel trick。
此外,核函数还可以衡量两个特征的相似度,值越大,越相似(可用于跟踪哦 )。
接着讲的是Polynomial Kernel,需要注意的是核函数的系数和常量,这会影响到最终的margin。
再接着讲了高斯Kernel,它能将原始数据映射到无限维!但是如果参数选的不好就会出现过拟合。
最后对几种Kernel进行了比较,各有优缺点。需要注意的是,线性Kernel应该是首先尝试的对象。
参考:http://www.cnblogs.com/xbf9xbf/p/4621769.html
http://www.cnblogs.com/bourneli/p/4202423.html