zoukankan      html  css  js  c++  java
  • l2正则化

    机器学习中,无论是分类还是回归,都可能存在由于特征过多而导致的过拟合问题。当然解决的办法有

      (1)减少特征,留取最重要的特征。

      (2)惩罚不重要的特征的权重。

    但是通常情况下,我们不知道应该惩罚哪些特征的权重取值。通过正则化方法可以防止过拟合,提高泛化能力。

    先来看看L2正则化方法。对于之前梯度下降讲到的损失函数来说,在代价函数后面加上一个正则化项,得到

        

    注意是从1开始的。对其求偏导后得到

        

    然后得到梯度下降的表达式如下

         

    注意当0的时候,可以认为的值为0。可以看出没有正则化时,系数的权重为1,而现在明显

           

    也就是说权值进行了衰减。那么为什么权值衰减就能防止overfitting呢 ?

    首先,我们要知道一个法则-奥卡姆剃刀,用更少的东西做更多事。从某种意义上说,更小的权值就意味着模型的复杂度更低,对数据的拟合更好。接下来,引用知乎上的解释。

    (1)当权值系数更大时,会过拟合。

        

    (2)在PRML中,正则化就是通过对模型的参数设定一个先验来防止过拟合。

         

         试想一下,在上图中,如果不加正则化项,那么最优参数对应的等高线离中心点的距离可能会更近,加入正

         则化项后使得训练出的参数对应的等高线离中心点的距离不会太近,也不会太远。从而避免了过拟合。

  • 相关阅读:
    luogu 1865 数论 线性素数筛法
    洛谷 2921 记忆化搜索 tarjan 基环外向树
    洛谷 1052 dp 状态压缩
    洛谷 1156 dp
    洛谷 1063 dp 区间dp
    洛谷 2409 dp 月赛题目
    洛谷1199 简单博弈 贪心
    洛谷1417 烹调方案 dp 贪心
    洛谷1387 二维dp 不是特别简略的题解 智商题
    2016 10 28考试 dp 乱搞 树状数组
  • 原文地址:https://www.cnblogs.com/awishfullyway/p/6065583.html
Copyright © 2011-2022 走看看