zoukankan      html  css  js  c++  java
  • Andrew NgML第八章正则化

    1.过度拟合overfitting

    过度拟合,因为有太多的特征+过少的训练数据,学习到的假设可能很适应训练集,但是不能泛化到新的样例。即泛化generalize能力差。

    解决办法:

    1.手动/使用选择算法来确定保留的特征。

    2.当所有的特征都对结果有一定贡献时,需要正则化,保留所有特征,但是降低θ的量级或者值。

    2.正则化

     

    在代价函数中加入惩罚项(正则化项),即对所有系数平方求和,乘上惩罚系数,这样就会降低各系数的量级,从而使分类模型形式更加简单,更简单的意思在这里可以理解为,像是预测房价的,如果多了三次项和四次项,但是通过加上惩罚项之后求出来的θ3和θ4就会很小,从而使曲线光滑趋近于二次曲线。

    但是如果设置惩罚系数lamda过大的话,会出现所有的theta1,theta2......theta100,都会被小到忽略。

    3.线性回归的正则化

     在代价函数里加上了正则项,从而在递归下降求解时的公式也发生了改变,如下:

    i表示第几个样本,j表示一个样本内的指标序号。

     4.逻辑回归的正则化

     逻辑回归梯度下降迭代时,即如图。

    逻辑回归代价函数加上的惩罚项是lamda/2*m(Σtheta j ^2)。

  • 相关阅读:
    自动封箱和拆箱
    关于Java的一道内存的题目
    volatile关键字
    阶乘尾零
    Java之final的解析
    从1到n整数中1出现的次数
    最小安装雷达数量
    二叉树重建
    最短路径—Dijkstra算法
    PAT A1063——set的常见用法详解
  • 原文地址:https://www.cnblogs.com/BlueBlueSea/p/9382859.html
Copyright © 2011-2022 走看看