zoukankan      html  css  js  c++  java
  • 线性支持向量机(4)

    对于线性支持向量机学习来说,模型为分离超平面w*x+b*=0及决策函数f(x)=sign(w*x+b*),其学习策略为软间隔最大化,学习算法为凸二次规划。线性支持向量机学习还有另外一种解释,也就是最小化如下目标函数:

    第一项是经验损失,函数:

    称为合页损失函数,下标+表示以下取正值的函数:

    那么以上部分也可以转化为,当样本点(xi,yi)被正确分类且函数间隔yi(wxi+b)大于1时,损失为0,否则损失是1-yi(wxi+b).

    这时候线性支持向量机原始最优化问题:

    等价于最优化问题:

    证明过程如下:

    ,则ξi≥0,当时,则有,当时,ξi=0,因而有,因而上述最优化问题可以转化为:

    且隐含支持向量机原始最优化问题的约束条件,取,则有:

    等价于

  • 相关阅读:
    统计代码行数
    梯度下降算法
    multiplot 安装与配置
    ros 源码安装
    cmake 指定gcc/g++版本
    python 科学计算基础库安装
    协方差矩阵的含义
    pysvn 相关
    void 0与undefined
    BEM规范
  • 原文地址:https://www.cnblogs.com/xiaochouk/p/8038957.html
Copyright © 2011-2022 走看看