zoukankan      html  css  js  c++  java
  • 感知机1 -- 感知机模型

    声明:

           1,本篇为个人对《2012.李航.统计学习方法.pdf》的学习总结,不得用作商用。欢迎转载。但请注明出处(即:本帖地址)。

           2,因为本人在学习初始时有非常多数学知识都已忘记,因此为了弄懂当中的内容查阅了非常多资料。所以里面应该会有引用其它帖子的小部分内容。假设原作者看到能够私信我。我会将您的帖子的地址付到以下。

           3,假设有内容错误或不准确欢迎大家指正。

           4。假设能帮到你,那真是太好了。

    定义

           感知机模型说白了就是推断“属于规定类?还是不属于规定类”的模型。

           其函数为:

                  F(x)= sign(w·x + b)

                         w、b :感知机模型的參数

                         w∈Rn :权值/权值向量

                         b∈R :偏置

                         w·x :w和x的内积

                         Sign :符号函数

          

           感知机为一种线性分类模型,属于一宗判别模型

    感知机的几何解释

           首先。其线性方程为w·x + b = 0,于是例如以下图所看到的:

                 

           若该线性方程相应特征空间Rn中的一个超平面S,则w为该超平面的法向量,b为超平面的截距,该超平面将Rn分成正负两类。于是该超平面也被称为分离超平面

    第一次总结

           综上所述。感知机预測就是通过学习得到的感知机模型,给出新输入实力相应的输出类别。

    线性可不可分

           对数据集 T={(x1,y1),(x2,y2),...,(xn,yn)},当中x1∈Rn。yi={+1,-1}, i=1, 2, ...,n,若存在一超平面S:

    w·x + b = 0

           可将数据集的正实例点和负实例点全然正确的划分到超平面的两側。即:

                  对全部的yi = +1的实例i,有w·xi+ b > 0

                  对全部的yi = -1的实例i,有w·xi+ b < 0

           则称数据集T为线性可分数据集,反之。称其为线性不可分数据集

    感知机学习策略

           于是。其学习策略就是找出一个可将数据集全然正确分离的超平面:

                  w·x + b = 0

           话句话说。就是确定w和b这两个參数

           而为了确定这两个參数,我们需了解下“损失函数”。

    损失函数

           我们规定,损失函数为误分类点到超平面S的总距离。

           于是,我们先写出输入空间Rn中任一点x0到超平面S的距离:

                  |w·x + b| / ||w||

           这里||w||为w的L2范数。

           对于误分类的数据(xi,yi)来说:

                  -yi(wxi + b) > 0

                         由于。对于误分类的数据:

                                w·x + b > 0 时,yi = -1

                                w·x + b < 0 时。yi = +1

           于是

           ∵误分类点xi到超平面S的距离为:

                  -yi(wxi + b) / ||w||

           ∴ 对于误分类点集合M。全部误分类点到S的总距离为:

                  

           ∴若不考虑1/||w|||,就得到了感知机学习模型的损失函数

           最后,损失函数定义为:

                  对给定数据集 T={(x1,y1),(x2,y2),...,(xn,yn)},当中x1∈Rn,yi={+1,-1}, i=1, 2, ...,n

                  感知机sign(w·x + b)学习的损失函数定义为:

                         L(w,b) = -yi(w·xi + b)

                  当中。M为误分类点的集合。

    第二次总结(关于损失函数)

           1,  损失函数L(w, b) 是非负的

           2,  若无误分类点,则损失函数为0

                  而随着误分类点的降低。损失函数的值也会降低

           3,  一个特定的样本的损失函数:

                  在误分类时为參数w,b 的线性函数,在正确分类时为0

           4,  于是。对给定训练数据T。损失函数L(w, b)为:w,b的连续可导函数

    感知机学习算法的最优化方法

           感知机学习算法的最优化的方法为:随机梯度下降算法。

                  (类似的还有个:最小二乘法)

    感知机学习算法的原始形式

           现已知,对于误分类点的几何,损失函数为:

                  L(w,b) = -yi(w·xi + b)

           于是乎,我们的目的就是求L(w, b)的极小值,而这里,我们选择随机梯度下降算法来求此极小值。

           以下请转到“随机梯度下降算法”的总结。

  • 相关阅读:
    python代码-实现对文件内容的哈希
    python底层的一些知识
    编码-理解
    编码的理论知识-小结
    时间同步:Linux同步国家授时中心的时间
    ASCII码表和base64码表、GBK编码表
    python说明编码和解解码
    python基础-判断一年中的第几天
    VM12及CentOS-6.10的安装
    Linux网卡配置
  • 原文地址:https://www.cnblogs.com/lxjshuju/p/7220982.html
Copyright © 2011-2022 走看看