zoukankan      html  css  js  c++  java
  • 梯度下降与随机梯度下降的区别

    随机梯度下降法stochastic gradient descent,也叫增量梯度下降

    由于梯度下降法收敛速度慢,而随机梯度下降法会快很多

    –根据某个单独样例的误差增量计算权值更新,得到近似的梯度下降搜索(随机取一个样例)

    –可以看作为每个单独的训练样例定义不同的误差函数

    –在迭代所有训练样例时,这些权值更新的序列给出了对于原来误差函数的梯度下降的一个合理近似

    –通过使下降速率的值足够小,可以使随机梯度下降以任意程度接近于真实梯度下降

    •标准梯度下降和随机梯度下降之间的关键区别

    –标准梯度下降是在权值更新前对所有样例汇总误差,而随机梯度下降的权值是通过考查某个训练样例来更新的

    –在标准梯度下降中,权值更新的每一步对多个样例求和,需要更多的计算

    –标准梯度下降,由于使用真正的梯度,标准梯度下降对于每一次权值更新经常使用比随机梯度下降大的步长

    –如果标准误差曲面有多个局部极小值,随机梯度下降有时可能避免陷入这些局部极小值中

  • 相关阅读:
    3553: [Shoi2014]三叉神经树(树链剖分)
    Hive学习笔记(三)-- DML和DDL操作
    Hive学习笔记(二)
    Hive学习笔记(一)
    Hive安装步骤
    【Netty】NIO框架Netty入门
    【Netty】Netty入门之WebSocket小例子
    记录一次面试
    线程池面试
    反射面试
  • 原文地址:https://www.cnblogs.com/relaxgirl/p/2943845.html
Copyright © 2011-2022 走看看