zoukankan      html  css  js  c++  java
  • [机器学习&数据挖掘]SVM---软间隔最大化

    根据上个硬间隔最大化已经知道,在解决线性可分数据集的分类问题时,求得拉格朗日乘子、w、b就得到分离超平面,然后就可以进行分类,软间隔最大化是针对非线性可分的数据集,因为并不是数据集在可分的时候会出现一些个别的点不能够被正确划分,而被划分到另一类中,软间隔最大化就是对目标函数加上一个惩罚项,或者说是松弛变量,这样可以稍微灵活的进行分类,因此需要对上边所说的问题、公式进行一些调整。

     因此原始问题就变成如下:

                        

    其中是松弛变量,C是惩罚参数,一般由应用问题决定,C增大对误分类的惩罚增大,C减小对误分类的惩罚减小。

    对偶问题则变成如下:

                        

    接下来的w和b的求解公式便与硬间隔最大化是相同的如下:

                        

  • 相关阅读:
    微信小程序 数据绑定方式
    wxss与rpx
    Ubuntu 编译安装 Xdebug
    PHP运算符优先级
    有了art-template,如有神助
    laydate控制之前的日期不可选择
    label和span的区别
    phpredis基本操作
    FILE,id不一致
    双层保障,年龄的输入
  • 原文地址:https://www.cnblogs.com/fantasy01/p/4667990.html
Copyright © 2011-2022 走看看