TensorFlow四种Cross Entropy算法实现和应用
对比两个函数tf.nn.softmax_cross_entropy_with_logits和tf.nn.sparse_softmax_cross_entropy_with_logits
从神经网络视角看均方误差与交叉熵作为损失函数时的共同点
交叉熵代价函数
交叉熵代价函数(损失函数)及其求导推导
简单易懂的softmax交叉熵损失函数求导
如何通俗的解释交叉熵与相对熵?
https://www.cnblogs.com/viredery/p/cross_entropy.html