zoukankan      html  css  js  c++  java
  • 丢弃法

    一、前言

    在深度学习里面,除了用权重衰退来应对过拟合外,还用丢弃法(dropout)来应对过拟合

    二、概念

    在现代神经网络中,我们所指的丢弃法,通常是对输入层或者隐含层进行的操作:

    1、以丢失概率P随机丢掉该层的部分隐藏单元

    2、丢带的隐藏单元会被清零

    3、没有丢掉的隐藏单元会除以1-p做拉伸

    三、原理

    1、对与上图的单隐藏层感知机,其输入层节点数为4,隐藏层节点数为5,所以隐藏层节点hi(i=1,2,3,4,5)的输出值计算方法为:ϕ表示激活函数

    2、当我们对隐藏层使用丢弃法时,这一层的节点有一定的概率被丢弃,即其输出值被置0. 我们假设丢弃的概率为p,那么hi会有p的概率被置0,有1-p的概率会除以1-p做拉伸

    即使用丢弃法不改变隐藏层节点的期望

    3、可以发现以P的概率删除了h2和h5后,输出的计算不再依赖于h2和h5。并且它们在各自的梯度在执行反向传播时也会消失,这样输出层的计算就不会过度依赖与和h1...h5中的任何一个元素

    4、在训练时使用dropout。在测试时,为了取得确定性的结果,不使用丢弃法

  • 相关阅读:
    函数式编程:用户登录和注册
    文件操作
    shell介绍
    函数返回值
    selenium 事件介绍
    Linux添加硬盘设备
    分布式系统中幂等性、at least once 和 at most once 问题
    HBase面试考点
    简单理解:数据库的一致性与四种隔离级别(+MySQL实现)
    大数据框架Hive优化方法
  • 原文地址:https://www.cnblogs.com/xiaoqing-ing/p/15073812.html
Copyright © 2011-2022 走看看