zoukankan      html  css  js  c++  java
  • 深度之眼PyTorch训练营第二期---14、正则化

    一、正则化与偏差-方差分解

    Regularization:减少方差的策略

    误差可分解为:偏差,方差与噪声之和,即误差 = 偏差 + 方差 + 噪声之和

    偏差:度量了学习算法的期望预测与真实结果的偏离程度,即刻画了学习算法本身的拟合能力

    方差:度量了同样大小的训练集的变动所导致的学习性能的变化,即刻画了数据扰动所造成的影响

    噪声:表达了再当前任务上任何学习算法所能达到的期望泛化误差的下界

    二、pytorch中的L2正则化---weight decay

    L2 Regularization = weight decay(权值衰减)

    三、Dropout概念

    Dropout随机失活

    随机:dropout probability

    失活:weight = 0

    数据尺度变化:测试时,所有权重乘以1 - drop_prob

    drop_prob = 0.3 1 - drop_prob = 0.7

    nn.Dropout

    功能:Dropout层

    参数:

    p:被舍弃的概率,失活概率

    实现细节:训练时权重均除以1-p

  • 相关阅读:
    canvasnode的设计思路和api介绍
    希望新浪网络学院的童鞋们加油
    和新童鞋们吃饭,见到了jeremy
    MongoDB 学习资料
    [转] Scrum框架及其背后的原则
    twisted学习资料
    创建课程表
    进程
    协程
    支付宝支付流程
  • 原文地址:https://www.cnblogs.com/cola-1998/p/11908761.html
Copyright © 2011-2022 走看看