zoukankan      html  css  js  c++  java
  • 【笔记】机器学习

    神经网络的表现

    在Training Set上表现不好 ----> 可能陷入局部最优
    在Testing Set上表现不好 -----> Overfitting 过拟合

    虽然在机器学习中,很容易通过SVM等方法在Training Set上得出好的结果,但DL不是,所以得先看Training Set上的表现。

    要注意方法适用的阶段:
    比如:dropout方法只适合于:在Training Data上表现好,在Testing Data上表现不好的。
    如果在Training Data上就表现不好了,那么这个方法不适用。

    神经网络的改进

    1. New Activation Function

    梯度消失:在输入层附近梯度小,在输出层梯度大,当参数还没有更新多少时,在输出层已经收敛了,这是激活函数(sigmoid)对值压缩的问题。
    也就是一个比较大的input进去,出来的output比较小,所以最后对total loss的影响比较小,趋于收敛。

    1.1 ReLU

    如何解决梯度消失?
    修改activation function为ReLU(Rectified Linear Unit),
    ReLU input 大于0时,input 等于 output,input小于0时,output等于0。

    其中,output为0的neural可以去掉,得到一个thinner linear network。

    虽然局部是线性的,但这个network从总体上来说还是非线性的。

    input小于0的部分,微分为0,这样就没法很好地更新参数了,所以有以下两种方法改进。
    leaky ReLU,Parametric ReLU。

    1.2 Maxout

    此外,还可以通过Maxout自动学习activation function。ReLU是一种特殊的Maxout。

    此外maxout可以与ReLU不同,如下图所示,可以有更灵活的形状,更多的piece(即更多的element)。

    因为不是max的部分可以先去掉,所以可以不用train那些w,先train线性的局部。
    当然,因为训练数据很多,最后都会被train到。

    2. Adaptive Learning Rate

    在Adagrad的基础上,Hinton提出了RMSProp方法。

    对于local minimum的问题,因为每一个dimension都在谷底的情况很少,所以local minimum并没有那么多。

    当然解决这个问题,有个Momentum的方法,模拟滚动的物理现象,加上惯性。

    Adam方法,RMSProp + Momentum。

    如果说在Testing Data上表现不好,可以用以下三种方法。

    3. Early Stopping

    用验证集去模拟测试集,在Testing Set表现开始变得不好的时候,停止Training。

    4. Regularization

    打个比方:小孩从出生到六岁,神经网络越来越多,但六岁以后开始变少。

    在原来的Loss Function(minimize square error, cross entropy)的基础上加Regularization这一项(L2),不会加bias这一项,加Regularization的目的是让曲线更加平滑。

    L2 Regularization 也叫 Weight Decay,这样每次都会让weight小一点。最后会慢慢变小趋近于0,但是会与后一项梯度的值达到平衡,使得最后的值不等于0。

    用L1 Regularization也是可以的。

    L2下降的很快,很快就会变得很小,在接近0时,下降的很慢,会保留一些接近01的值;
    L1的话,减去一个固定的值(比较小的值),所以下降的很慢。

    所以,通过L1-Norm training 出来的model,参数会有很大的值。

    5. Dropout

    对network里面的每个neural(包括input),做sampling(抽样)。 每个neural会有p%会被丢掉,跟着的weight也会被丢掉。

    形象理解:(练武功&团队合作)

    Dropout就是一种终极的集成学习 Ensemble。

    可以理解为,因为有很多的model,Structure都不一样,
    虽然每个model可能variance很大,但是如果它们都是很复杂的model时,平均起来时bias就很小,所以就比较准了。

    如果直接将weight乘以 (1-p%),结果之前做average的结果跟output y是approximated。

  • 相关阅读:
    [转载]windows下mongodb安装与使用整理
    CentOS SVN 服务器搭建
    linux下expect使用教程
    PHP时间格式控制符对照表
    WebGoat学习——SQL注入(SQL Injection)
    跨站脚本攻击(Cross‐Site Scripting (XSS))实践
    WebGoat学习——跨站请求伪造(Cross Site Request Forgery (CSRF))
    WebGoat学习——跨站脚本攻击(Cross‐Site Scripting (XSS))
    编程方式取得Spring上下文的Properties
    网站页面打开浏览器table中显示图片
  • 原文地址:https://www.cnblogs.com/yanqiang/p/11387112.html
Copyright © 2011-2022 走看看