zoukankan      html  css  js  c++  java
  • ubuntu之路——day7.2 regularization

    所有的正则化方法来自于吴恩达老师的免费公开课:https://mooc.study.163.com/learn/2001281003?tid=2001391036#/learn/content?type=detail&id=2001701045

    1.矩阵L2正则化(Frobenius范数),有时也称其为“权重衰减” 其本质是通过乘一个小于1的范数,使得w在每次迭代后逐渐变小,因此激活函数的范围也靠近0,所以从激活函数的图像来看,基本就是tanh的中间类似于直线的区段,使得神经网络每一层中的线性成分增多,减少过拟合。

    2.dropout正则化,反向随机失活(Inverted Dropout) 本质是通过类似抛硬币的方式(可以设置正反的概率)随机的舍去一些节点,从而精简网络。

    3.数据扩增(Data Augmentation) 类似于把一张图片水平翻转,或者随机截取一些原图片的内容然后标准化,或者对原图片进行扭曲等等,使得训练集变大。

    4.提早停止(Early stopping)优点:相对于L2不用尝试大量参数 缺点:单纯的找到了一个验证集方差小的参数,但是同时又限定了训练集不能继续迭代,无法找到最优的bias。

  • 相关阅读:
    数据库(六)
    数据库(五)
    数据库(四)
    数据库(三)
    数据库(二)
    数据库
    函数 枚举和递归
    数据类型(四) 集合
    数据库基础
    特殊集合 结构体
  • 原文地址:https://www.cnblogs.com/NWNU-LHY/p/11187951.html
Copyright © 2011-2022 走看看