zoukankan      html  css  js  c++  java
  • CNN

    一个新的激活函数——Relu

    Relu函数作为激活函数,有下面几大优势:

    • 速度快 和sigmoid函数需要计算指数和倒数相比,relu函数其实就是一个max(0,x),计算代价小很多。
    • 减轻梯度消失问题
    • 稀疏性。有论文声称人工神经网络在15%-30%的激活率时是比较理想的。因为relu函数在输入小于0时是完全不激活的,因此可以获得一个更低的激活率。

    全连接网络 VS 卷积网络

    全连接神经网络之所以不太适合图像识别任务,主要有以下几个方面的问题:

    • 参数数量太多
    • 没有利用像素之间的位置信息。努力学习大量并不重要的权重,这样的学习必将是非常低效的。
    • 网络层数限制

    卷积神经网络

    • 局部连接,每个神经元不再和上一层的所有神经元相连,而只和一小部分神经元相连。这样就减少了很多参数。
    • 权值共享
    • 下采样

     

    我们把卷积神经网络中的『卷积』操作叫做互相关(cross-correlation)操作。

    卷积神经网络的训练

    利用链式求导计算损失函数对每个权重的偏导数(梯度),然后根据梯度下降公式更新权重。训练算法依然是反向传播算法。

    步骤:

    卷积层的训练

  • 相关阅读:
    【k8s】deploy-progressDeadlineSeconds
    【k8s】deploy-paused
    【k8s】deploy-rollback
    【k8s】deploy-rollout
    【k8s】deploy-pod-template-hash
    【k8s】deploy-rs
    【k8s】deploy-metadata
    垂直居中总结
    linux操作系统的知识点复盘
    JMETER接口测试学习知识点复盘
  • 原文地址:https://www.cnblogs.com/pacino12134/p/11098052.html
Copyright © 2011-2022 走看看