zoukankan      html  css  js  c++  java
  • tensorflow学习007——逻辑回归和交叉熵

    2.6逻辑回归与交叉熵

    之前的线性回归预测的是一个连续值,而逻辑回归预测的是“是”和“否”的回答。
    需要用到一个sigmoid激活函数,系那个结果映射到0到1之间,就可以将结果堪称一个概率值,当小于0.5认为是一个负面回答,否则认为是一个正面回答。
    逻辑回归的损失函数不能使用线性回归的损失函数均方差,这是因为如果真实结果是正面回答也就是1,而预测的是0.3,这样所得到的均方差都是比较小的,因为每次的差值都是小于1,那么导致最后的训练次数需要增多,毕竟,损失函数的结果非常小。
    对于分类问题,一般使用交叉熵巡视函数,交叉熵会给出一个更大的“损失”。
    交叉熵刻画的是实际输出(概率)与期望输出(概率)的距离,也就是交叉熵的值越小,两个概率分布就越接近。假设概率分布p为期望输出,概率分布q为实际输出,H(p.q)为交叉熵

    image

    image
    图22-14
    从图2-14中我们可以看出当靠近0的时候,L2也即是最小二乘法损失比较小,而sigmoid的损失比较大。交叉熵损失放大了这种概率分布之间的损失。


    作者:孙建钊
    出处:http://www.cnblogs.com/sunjianzhao/
    本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,否则保留追究法律责任的权利。

  • 相关阅读:
    HDOJ_1010 Tempter of the Bone
    矩阵旋转
    HDU 2544 最短路 http://acm.hdu.edu.cn/showproblem.php?pid=2544
    题目连接:http://acm.zznu.edu.cn/problem.php?id=1329
    队列/优先队列(代码简单模式)
    虚拟方法调用
    Vim中分屏(整理)
    Java Web设计模式之依赖倒换原则
    Java Web 设计模式之开闭原则
    Java 2+2=5
  • 原文地址:https://www.cnblogs.com/sunjianzhao/p/15552112.html
Copyright © 2011-2022 走看看