zoukankan      html  css  js  c++  java
  • 201119西瓜书系列博客---6、支持向量机

    201119西瓜书系列博客---6、支持向量机

    一、总结

    一句话总结:

    支持向量机(Support Vector Machine),简称SVM,是一种经典的【二分类模型】,属于监督学习算法。

    1、【6.1、间隔与支持向量】?

    介绍了支持向量机的目标是确定一个对样本的分类结果最鲁棒的线性分类器,即找到一个具有【最大间隔的划分超平面】。
    为此【以间隔为优化目标】,可将其转化为一个凸二次规划问题。

    2、【6.2、对偶问题】?

    6.2.1、【转换对偶问题】;6.2.2、【求解对偶问题】;
    对于6.1节求出的凸二次规划问题,采用【拉格朗日乘子法】可得到其【对偶问题】。
    由于该对偶问题又为二次规划问题,文中采用了【SMO算法】对其进行求解。

    3、【6.3、核函数】?

    前两节是在样本在其原始样本空间【线性可分的假设下】进行讨论的,
    该节针对原始样本空间【线性不可分】的问题,基于有限维原始样本空间【一定存在一个高维特征空间使样本线性可分】这一定理,
    引出了【原始空间和特征空间的桥梁——核函数】的相关概念,并强调【核函数的选择】是支持向量机的最大变数。

    4、【6.4、软间隔与正则化】?

    前三节都是基于理论进行的推导,但在现实情况下我们【很难确定合适的核函数】对样本进行完美分类,故提出了【软间隔】的概念,【允许有尽可能少的样本不满足约束条件】。
    于是在前面的基础上,模型加入了【对各个样本松弛变量的考量】,并采用6.2节的方法进行求解。

    5、【6.5、支持向量回归】?

    本节【从分类问题转向了回归问题】,介绍了相对于传统回归问题上对损失的严格定义,【支持向量回归(SVR)】则对模型输出和真实输出设有容许偏差,只有超过偏差才计算损失。
    凭此建立了【SVR模型】,并还是采用6.2节的方法进行求解。

    6、【6.6、核方法】?

    由前面的推导发现,SVM和SVR学得的模型【总能表示成核函数的线性组合】,并引出了表示定理,
    强调了该类型的优化问题的解总可表示为核函数的线性组合,并以线性判别分析(LDA)为例向我们演示了如何通过引入核函数(核化)进行【非线性拓展】。

    二、201119西瓜书系列博客---6、支持向量机

    转自或参考:西瓜书学习笔记——第六章:支持向量机
    https://blog.csdn.net/shichensuyu/article/details/90678747

     
    我的旨在学过的东西不再忘记(主要使用艾宾浩斯遗忘曲线算法及其它智能学习复习算法)的偏公益性质的完全免费的编程视频学习网站: fanrenyi.com;有各种前端、后端、算法、大数据、人工智能等课程。
    博主25岁,前端后端算法大数据人工智能都有兴趣。
    大家有啥都可以加博主联系方式(qq404006308,微信fan404006308)互相交流。工作、生活、心境,可以互相启迪。
    聊技术,交朋友,修心境,qq404006308,微信fan404006308
    26岁,真心找女朋友,非诚勿扰,微信fan404006308,qq404006308
    人工智能群:939687837

    作者相关推荐

  • 相关阅读:
    多个装饰器装饰一个函数
    DRF 里面DestroyAPIView实例
    ERROR: Command "python setup.py egg_info" failed with error code 1 in /tmp/pip-install-e7q1vcuk/mysqlclient/解决办法!
    python3 协程爬取两张妹子图
    python3 协程简单运用爬取两张妹子图
    gevent 简单运用
    D
    C
    B
    javascript cookie
  • 原文地址:https://www.cnblogs.com/Renyi-Fan/p/14014521.html
Copyright © 2011-2022 走看看