zoukankan      html  css  js  c++  java
  • 关于激活函数和损失函数的调研

    1) 激活函数(Activation Function

    • 背景

    深度学习的基本原理是基于人工神经网络,信号从一个神经元进入,经过非线性的activation function,传入到下一层神经元;再经过该层神经元的activate,继续往下传递,如此循环往复,直到输出层。正是由于这些非线性函数的反复叠加,才使得神经网络有足够的capacity来抓取复杂的pattern,在各个领域取得state-of-the-art的结果。显而易见,activation function在深度学习中举足轻重,也是很活跃的研究领域之一。目前来讲,选择怎样的activation function不在于它能否模拟真正的神经元,而在于能否便于优化整个深度神经网络。下面我们简单聊一下各类函数的优缺点以及其适用场景。

    • Sigmoid函数
    • Sigmoid函数是深度学习领域开始时使用频率最高的activation function
    • Pros

            它是便于求导的平滑函数,其导数为

    l  Cons

    l  容易出现gradient vanishing

    l  函数输出并不是zero-centered

    l  幂运算相对来讲比较耗时

    l  适用场景:常用于输出层,多应用在二分类问题、逻辑回归任务及其他神经网络领域

     未完待续

  • 相关阅读:
    Photoshop 2021 for Mac
    viscose live serves 扩展工具更改默认自动打开的浏览器
    UML面向对象分析、建模与设计
    Shell 脚本
    早做打算,不要随遇而安。
    编程人员成长模型
    Spring AOP详解
    Mybatis逆向工程的配置
    Int和String互转的方法
    SQL学习
  • 原文地址:https://www.cnblogs.com/Kobaayyy/p/11854958.html
Copyright © 2011-2022 走看看