zoukankan      html  css  js  c++  java
  • tensorflow softmax_cross_entropy_with_logits函数

    1、softmax_cross_entropy_with_logits

    tf.nn.softmax_cross_entropy_with_logits(logits, labels, name=None)

    解释:这个函数的作用是计算 logits 经 softmax 函数激活之后的交叉熵。

    对于每个独立的分类任务,这个函数是去度量概率误差。比如,在 CIFAR-10 数据集上面,每张图片只有唯一一个分类标签:一张图可能是一只狗或者一辆卡车,但绝对不可能两者都在一张图中。(这也是和 tf.nn.sigmoid_cross_entropy_with_logits(logits, targets, name=None)这个API的区别)

    警告:输入API的数据 logits 不能进行缩放,因为在这个API的执行中会进行 softmax 计算,如果 logits 进行了缩放,那么会影响计算正确率。不要调用这个API区计算 softmax 的值,因为这个API最终输出的结果并不是经过 softmax 函数的值。

    logits labels 必须有相同的数据维度 [batch_size, num_classes],和相同的数据类型 float32 或者 float64

    2、tensorflow例子

    import tensorflow as tf
    
    a=tf.constant([[1, 1, 1]],dtype=tf.float32)
    b=tf.nn.softmax(a)
    
    with tf.Session() as sess:
        print(sess.run(b))
        print(sess.run(tf.nn.softmax_cross_entropy_with_logits(logits=a,labels=[[1,1,1]])))
        sess.close()

    输出结果:

    [[ 0.33333334 0.33333334 0.33333334]]
    [ 3.29583693]

  • 相关阅读:
    括号序列
    单向TSP
    Black Box
    震惊!!!某初中生竟30min一蓝两紫一黑!!!
    荷马史诗
    SUFEQPRE
    UVA劲歌金曲
    UVA城市里的间谍
    饼图----插件
    折线图-----插件
  • 原文地址:https://www.cnblogs.com/lovephysics/p/7222596.html
Copyright © 2011-2022 走看看