zoukankan      html  css  js  c++  java
  • 正则化解决过拟合问题

    所谓正则化是在代价函数的基础上进行的
    为了使costfunction尽快的取得最小值


    当参数过多时,会存在过拟合现象,假如我们在损失函数中加入一项作为惩罚,如加入(1000 heta_{3}^{2}),当参数( heta_{3})过大时,会使得损失函数变大,而我们的目标是损失函数最小化,因此,会迫使参数值变小,当但数值值趋近于0时,近似于新加入的项入(1000 heta_{3}^{2})趋近于0,相当于去掉这一项,此时,模型又近似于二次函数形式。解决了过拟合问题。

    感觉确实很不错的

    当参数很多时,无法确定那些参数对模型影响大,哪些影响较小。无法对参数进行选择约束。因此,我们就从整体上对参数进行约束,加入上图紫色的正则项,对除 heta _{0} 以外的所有参数进行约束。lambda 为正则参数。

    加入正则项之后的损失函数
    (J( heta)=frac{1}{2 m}left[sum_{i=1}^{m}left(h_{ heta}left(x^{(i)} ight)-y^{(i)} ight)^{2}+lambda sum_{j=1}^{n} heta_{j}^{2} ight])

    当正则参数取值较大时,惩罚作用较大,会使得所有参数的取值近似于0,此时,会使得假设模型中参数项以外的项趋近于0,假设模型近似于一条直线,造成欠拟合。

    应用

    线性回归的正则化

    (J( heta)=frac{1}{2 m}left[sum_{i=1}^{m}left(h_{ heta}left(x^{(i)} ight)-y^{(i)} ight)^{2}+lambda sum_{j=1}^{n} heta_{j}^{2} ight])

    加入正则项以后,目标依旧是找到最小化损失函数对应的参数值。通常有两种方法,梯度下降与正规方程

    在正则化损失函数中,梯度下降的原理与线性回归中一样,只是在迭代过程中将( heta_{0})单独分列出来,因为在正则化过程中只对( heta_{1}- heta_{n})进行惩罚。在对( heta_{1}- heta_{n})进行梯度下降时,加入正则项。化简后的梯度下降迭代公式如上图最后一个公式所示,第一项中的((1-alpha frac{lambda}{m}))是一个略小于1的数,假设为0.99,第二项与原梯度下降公式相同,因此,在进行每次迭代时,都是将原参数乘以0.99,每次迭代将参数缩小一点。

    logistic回归中的正则化


    (egin{aligned} h_{ heta}(x)=& gleft( heta_{0}+ heta_{1} x_{1}+ heta_{2} x_{1}^{2} ight)_{1}^{2} \ &+ heta_{3} x_{1}^{2} x_{2}+ heta_{4} x_{1}^{2} x_{2}^{2} \ &left.+ heta_{5} x_{1}^{2} x_{2}^{3}+ldots ight) end{aligned})

    损失函数

    (J( heta)=-left[frac{1}{m} sum_{i=1}^{m} y^{(i)} log h_{ heta}left(x^{(i)} ight)+left(1-y^{(i)} ight) log left(1-h_{ heta}left(x^{(i)} ight) ight) ight])

    在正则化的logistic回归模型中进行梯度下降的方式与线性回归中的方式相似,上图方括号中的式子为正则化后的损失函数。但是这里对(h_{ heta } (x))的定义与线性回归中的不同,这里表示的是一个sigmoid函数。

    高级优化算法
    略,等我学通到补充

    可以参考这个非常的通俗易懂机器学习中的正则化到底是什么

  • 相关阅读:
    《从优秀到卓越》 《麦肯锡方法》读后感
    程序员简单运动策划书
    Effective Java2读书笔记创建和销毁对象(二)
    Effective Java2读书笔记创建和销毁对象(三)
    Effective Java2读书笔记创建和销毁对象(四)
    Effective Java2读书笔记创建和销毁对象(一)
    浅谈EasyUI的使用
    UrlRewriteFilter(1):安装配置
    Struts2对国际化的支持笔记
    JSP页面之“IE无法打开Internet 站点…… 已终止操作”问题
  • 原文地址:https://www.cnblogs.com/gaowenxingxing/p/12234205.html
Copyright © 2011-2022 走看看