zoukankan      html  css  js  c++  java
  • 几种常见的损失函数

    1. 损失函数、代价函数与目标函数

      损失函数(Loss Function):是定义在单个样本上的,是指一个样本的误差。
      代价函数(Cost Function):是定义在整个训练集上的,是所有样本误差的平均,也就是所有损失函数值的平均。
      目标函数(Object Function):是指最终需要优化的函数,一般来说是经验风险+结构风险,也就是(代价函数+正则化项)。

    --

    2. 常用的损失函数

      这一节转载自博客

    (1)0-1损失函数(0-1 loss function)

    [L(y, f(x)) = egin{cases} 1, & {y eq f(x) } \ 0, & {y = f(x)} end{cases} ]

      也就是说,当预测错误时,损失函数为1,当预测正确时,损失函数值为0。该损失函数不考虑预测值和真实值的误差程度。只要错误,就是1。

    (2)平方损失函数(quadratic loss function)

    [L(y, f(x)) = (y - f(x))^2 ]

      是指预测值与实际值差的平方。

    (3)绝对值损失函数(absolute loss function)

    [L(y, f(x)) = | y -f(x) | ]

      该损失函数的意义和上面差不多,只不过是取了绝对值而不是求绝对值,差距不会被平方放大。

    (4)对数损失函数(logarithmic loss function)

    [L(y, p(y|x)) = - log p(y|x) ]

      这个损失函数就比较难理解了。事实上,该损失函数用到了极大似然估计的思想。P(Y|X)通俗的解释就是:在当前模型的基础上,对于样本X,其预测值为Y,也就是预测正确的概率。由于概率之间的同时满足需要使用乘法,为了将其转化为加法,我们将其取对数。最后由于是损失函数,所以预测正确的概率越高,其损失值应该是越小,因此再加个负号取个反。

    (5)Hinge loss

      Hinge loss一般分类算法中的损失函数,尤其是SVM,其定义为:

    [L(w,b) = max {0, 1-yf(x) } ]

      其中 $ y = +1 或 y = -1 $ ,$ f(x) = wx+b $ ,当为SVM的线性核时。


    3. 常用的代价函数

    (1)均方误差(Mean Squared Error)

    [MSE = frac{1}{N} sum_{i=1}^N (y^{(i)} - f(x^{(i)}))^2 ]

      均方误差是指参数估计值与参数真值之差平方的期望值; MSE可以评价数据的变化程度,MSE的值越小,说明预测模型描述实验数据具有更好的精确度。( $ i $ 表示第 $ i $ 个样本,$ N $ 表示样本总数)
      通常用来做回归问题的代价函数

    (2)均方根误差

    [RMSE = sqrt{frac{1}{N} sum_{i=1}^N (y^{(i)} - f(x^{(i)}))^2 } ]

      均方根误差是均方误差的算术平方根,能够直观观测预测值与实际值的离散程度。
      通常用来作为回归算法的性能指标

    (3)平均绝对误差(Mean Absolute Error)

    [MAE = frac{1}{N} sum_{i=1}^N |y^{(i)} - f(x^{(i)})| ]

      平均绝对误差是绝对误差的平均值 ,平均绝对误差能更好地反映预测值误差的实际情况。
      通常用来作为回归算法的性能指标

    (4)交叉熵代价函数(Cross Entry)

    [H(p,q) = - sum_{i=1}^{N} p(x^{(i)}) log {q(x^{(-i)})} ]

      交叉熵是用来评估当前训练得到的概率分布与真实分布的差异情况,减少交叉熵损失就是在提高模型的预测准确率。其中 $ p(x) $ 是指真实分布的概率, q(x) 是模型通过数据计算出来的概率估计。
      比如对于二分类模型的交叉熵代价函数(可参考逻辑回归一节):

    [L(w,b) = -frac{1}{N} sum_{i=1}^{N} (y^{(i)} log {f(x^{(i)})} + ( 1- y^{(i)}) log {(1- f(x^{(i)})})) ]

      其中 $ f(x) $ 可以是sigmoid函数。或深度学习中的其它激活函数。而 $ y^{(i)} in { 0,1 } $ 。
      通常用做分类问题的代价函数。


    引用及参考:
    [1] https://blog.csdn.net/reallocing1/article/details/56292877
    [2] https://blog.csdn.net/m_buddy/article/details/80224409
    [3] https://blog.csdn.net/chaipp0607/article/details/76037351
    [4] https://blog.csdn.net/shenxiaoming77/article/details/51614601

    写在最后:本文参考以上资料进行整合与总结,文章中可能出现理解不当的地方,若有所见解或异议可在下方评论,谢谢!
    若需转载请注明https://www.cnblogs.com/lliuye/p/9549881.html

  • 相关阅读:
    TextView autoLink不识别大写url问题
    用ImageLoader取拍摄的照片到imageView里面 图片的方向不对问题
    android使用qrcode_swetake.jar生成二维码
    jenkins + Git 搭建持续集成环境
    win10+jenkins+git+自动发布(搭建+构建)
    springMvc项目配置步骤
    linux系统下安装Jenkins
    解决java compiler level does not match the version of the installed java project facet
    Java通过FTP服务器上传下载文件的方法
    Nexus 安装(Linux 环境)
  • 原文地址:https://www.cnblogs.com/lliuye/p/9549881.html
Copyright © 2011-2022 走看看