zoukankan      html  css  js  c++  java
  • 【tensorflow2.0】损失函数losses

    一般来说,监督学习的目标函数由损失函数和正则化项组成。(Objective = Loss + Regularization)

    对于keras模型,目标函数中的正则化项一般在各层中指定,例如使用Dense的 kernel_regularizer 和 bias_regularizer等参数指定权重使用l1或者l2正则化项,此外还可以用kernel_constraint 和 bias_constraint等参数约束权重的取值范围,这也是一种正则化手段。

    损失函数在模型编译时候指定。对于回归模型,通常使用的损失函数是平方损失函数 mean_squared_error。

    对于二分类模型,通常使用的是二元交叉熵损失函数 binary_crossentropy。

    对于多分类模型,如果label是类别序号编码的,则使用类别交叉熵损失函数 categorical_crossentropy。如果label进行了one-hot编码,则需要使用稀疏类别交叉熵损失函数 sparse_categorical_crossentropy。

    如果有需要,也可以自定义损失函数,自定义损失函数需要接收两个张量y_true,y_pred作为输入参数,并输出一个标量作为损失函数值。

    import numpy as np
    import pandas as pd
    import tensorflow as tf
    from tensorflow.keras import layers,models,losses,regularizers,constraints

    一,损失函数和正则化项

    tf.keras.backend.clear_session()
     
    model = models.Sequential()
    model.add(layers.Dense(64, input_dim=64,
                    kernel_regularizer=regularizers.l2(0.01), 
                    activity_regularizer=regularizers.l1(0.01),
                    kernel_constraint = constraints.MaxNorm(max_value=2, axis=0))) 
    model.add(layers.Dense(10,
            kernel_regularizer=regularizers.l1_l2(0.01,0.01),activation = "sigmoid"))
    model.compile(optimizer = "rmsprop",
            loss = "sparse_categorical_crossentropy",metrics = ["AUC"])
    model.summary()
    Model: "sequential"
    _________________________________________________________________
    Layer (type)                 Output Shape              Param #   
    =================================================================
    dense (Dense)                (None, 64)                4160      
    _________________________________________________________________
    dense_1 (Dense)              (None, 10)                650       
    =================================================================
    Total params: 4,810
    Trainable params: 4,810
    Non-trainable params: 0
    _________________________________________________________________

    二,内置损失函数

    内置的损失函数一般有类的实现和函数的实现两种形式。

    如:CategoricalCrossentropy 和 categorical_crossentropy 都是类别交叉熵损失函数,前者是类的实现形式,后者是函数的实现形式。

    常用的一些内置损失函数说明如下。

    • mean_squared_error(平方差误差损失,用于回归,简写为 mse, 类实现形式为 MeanSquaredError 和 MSE)

    • mean_absolute_error (绝对值误差损失,用于回归,简写为 mae, 类实现形式为 MeanAbsoluteError 和 MAE)

    • mean_absolute_percentage_error (平均百分比误差损失,用于回归,简写为 mape, 类实现形式为 MeanAbsolutePercentageError 和 MAPE)

    • Huber(Huber损失,只有类实现形式,用于回归,介于mse和mae之间,对异常值比较鲁棒,相对mse有一定的优势)

    • binary_crossentropy(二元交叉熵,用于二分类,类实现形式为 BinaryCrossentropy)

    • categorical_crossentropy(类别交叉熵,用于多分类,要求label为onehot编码,类实现形式为 CategoricalCrossentropy)

    • sparse_categorical_crossentropy(稀疏类别交叉熵,用于多分类,要求label为序号编码形式,类实现形式为 SparseCategoricalCrossentropy)

    • hinge(合页损失函数,用于二分类,最著名的应用是作为支持向量机SVM的损失函数,类实现形式为 Hinge)

    • kld(相对熵损失,也叫KL散度,常用于最大期望算法EM的损失函数,两个概率分布差异的一种信息度量。类实现形式为 KLDivergence 或 KLD)

    • cosine_similarity(余弦相似度,可用于多分类,类实现形式为 CosineSimilarity)

    三,自定义损失函数

    自定义损失函数接收两个张量y_true,y_pred作为输入参数,并输出一个标量作为损失函数值。

    也可以对tf.keras.losses.Loss进行子类化,重写call方法实现损失的计算逻辑,从而得到损失函数的类的实现。

    下面是一个Focal Loss的自定义实现示范。Focal Loss是一种对binary_crossentropy的改进损失函数形式。

    在类别不平衡和存在难以训练样本的情形下相对于二元交叉熵能够取得更好的效果。

    详见《如何评价Kaiming的Focal Loss for Dense Object Detection?》

    https://www.zhihu.com/question/63581984

    def focal_loss(gamma=2., alpha=0.25):
     
        def focal_loss_fixed(y_true, y_pred):
            pt_1 = tf.where(tf.equal(y_true, 1), y_pred, tf.ones_like(y_pred))
            pt_0 = tf.where(tf.equal(y_true, 0), y_pred, tf.zeros_like(y_pred))
            loss = -tf.sum(alpha * tf.pow(1. - pt_1, gamma) * tf.log(1e-07+pt_1)) 
               -tf.sum((1-alpha) * tf.pow( pt_0, gamma) * tf.log(1. - pt_0 + 1e-07))
            return loss
        return focal_loss_fixed
     
    class FocalLoss(losses.Loss):
     
        def __init__(self,gamma=2.0,alpha=0.25):
            self.gamma = gamma
            self.alpha = alpha
     
        def call(self,y_true,y_pred):
     
            pt_1 = tf.where(tf.equal(y_true, 1), y_pred, tf.ones_like(y_pred))
            pt_0 = tf.where(tf.equal(y_true, 0), y_pred, tf.zeros_like(y_pred))
            loss = -tf.sum(self.alpha * tf.pow(1. - pt_1, self.gamma) * tf.log(1e-07+pt_1)) 
               -tf.sum((1-self.alpha) * tf.pow( pt_0, self.gamma) * tf.log(1. - pt_0 + 1e-07))
            return loss

    参考:

    开源电子书地址:https://lyhue1991.github.io/eat_tensorflow2_in_30_days/

    GitHub 项目地址:https://github.com/lyhue1991/eat_tensorflow2_in_30_days

  • 相关阅读:
    关于c#的知识博客
    sql server 查看列备注、类型、字段大小
    oracle 字符串分割函数
    sql server 字符串分割函数
    Microsoft.Office.Interop.Excel.ApplicationClass can not embedded 的问题
    web.xml文件配置
    解决FusionCharts报表中文乱码问题
    oracle树结构查询
    Myeclipse复制项目后部署出错解决方案
    jquery autocomplete参数说明
  • 原文地址:https://www.cnblogs.com/xiximayou/p/12689879.html
Copyright © 2011-2022 走看看