zoukankan      html  css  js  c++  java
  • Softmax回归

    Softmax 回归

    前几节介绍的线性回归模型适用于输出为连续值的情景。在另一类情景中,模型输出可以是一个像图像类别这样的离散值。对于这样的离散值预测问题,我们可以使用诸如 softmax 回归在内的分类模型。和线性回归不同,softmax 回归的输出单元从一个变成了多个,且引入了 softmax 运算使得输出更适合离散值的预测和训练。本节以 softmax 回归模型为例,介绍神经网络中的分类模型。

    分类问题

    让我们考虑一个简单的图像分类问题,其输入图像的高和宽均为 2 个像素,且色彩为灰度。这样每个像素值都可以用一个标量表示。我们将图像中的四个像素分别记为 x1,x2,x3,x4x1,x2,x3,x4。假设训练数据集中图像的真实标签为狗、猫或鸡(假设可以用 4 个像素表示出这三种动物),这些标签分别对应离散值 y1,y2,y3y1,y2,y3。

    我们通常使用离散的数值来表示类别,例如 y1=1,y2=2,y3=3y1=1,y2=2,y3=3。如此,一张图像的标签为 1、2 和 3 这三个数值中的一个。虽然我们仍然可以使用回归模型来进行建模,并将预测值就近定点化到 1、2 和 3 这三个离散值之一,但这种连续值到离散值的转化通常会影响到分类质量。因此我们一般使用更加适合离散值输出的模型来解决分类问题。

    Softmax 回归模型

    Softmax 回归跟线性回归一样将输入特征与权重做线性叠加。与线性回归的一个主要不同在于,softmax 回归的输出值个数等于标签里的类别数。因为一共有 4 种特征和 3 种输出动物类别,所以权重包含 12 个标量(带下标的 ww)、偏差包含 3 个标量(带下标的 bb),且对每个输入计算 o1,o2,o3o1,o2,o3 这三个输出:

    o1o2o3=x1w11+x2w21+x3w31+x4w41+b1,=x1w12+x2w22+x3w32+x4w42+b2,=x1w13+x2w23+x3w33+x4w43+b3.o1=x1w11+x2w21+x3w31+x4w41+b1,o2=x1w12+x2w22+x3w32+x4w42+b2,o3=x1w13+x2w23+x3w33+x4w43+b3.

    图 3.2 用神经网络图描绘了上面的计算。Softmax 回归同线性回归一样,也是一个单层神经网络。由于每个输出 o1,o2,o3o1,o2,o3 的计算都要依赖于所有的输入 x1,x2,x3,x4x1,x2,x3,x4,softmax 回归的输出层也是一个全连接层。

    Softmax回归是一个单层神经网络。

    Softmax回归是一个单层神经网络。

    Softmax 运算

    既然分类问题需要得到离散的预测输出,一个简单的办法是将输出值 oioi 当做预测类别是 ii 的置信度,并将值最大的输出所对应的类作为预测输出,即输出 argmaxioiargmaxi⁡oi。例如,如果 o1,o2,o3o1,o2,o3 分别为 0.1,10,0.10.1,10,0.1,那么预测类别为 2,其代表猫。

    然而,直接使用输出层的输出有两点问题。一方面,由于输出层的输出值的范围不确定,我们难以直观上判断这些值的意义。例如,刚才举的例子中的输出值 10 表示“很置信”图像类别为猫,因为该输出值是其他两类的输出值的 100 倍。但如果 o1=o3=103o1=o3=103,那么输出值 10 却又表示图像类别为猫的几率很低。另一方面,由于真实标签是离散值,这些离散值与不确定范围的输出值之间的误差难以衡量。

    Softmax 运算符(softmax operator)解决了以上两个问题。它通过下式将输出值变换成值为正且和为 1 的概率分布:

    y^1,y^2,y^3=softmax(o1,o2,o3),y^1,y^2,y^3=softmax(o1,o2,o3),

    其中

    y^1=exp(o1)3i=1exp(oi),y^2=exp(o2)3i=1exp(oi),y^3=exp(o3)3i=1exp(oi).y^1=exp⁡(o1)∑i=13exp⁡(oi),y^2=exp⁡(o2)∑i=13exp⁡(oi),y^3=exp⁡(o3)∑i=13exp⁡(oi).

    容易看出 y^1+y^2+y^3=1y^1+y^2+y^3=1 且 0y^1,y^2,y^310≤y^1,y^2,y^3≤1,因此 y^1,y^2,y^3y^1,y^2,y^3 是一个合法的概率分布。这时候,如果 y^2=0.8y^2=0.8,不管 y^1y^1 和 y^3y^3 的值是多少,我们都知道图像类别为猫的概率是 80%。此外,我们注意到

    argmaxioi=argmaxiy^i,argmaxi⁡oi=argmaxi⁡y^i,

    因此 softmax 运算不改变预测类别输出。

    单样本分类的矢量计算表达式

    为了提高计算效率,我们可以将单样本分类通过矢量计算来表达。在上面的图像分类问题中,假设 softmax 回归的权重和偏差参数分别为

    W=⎡⎣⎢⎢⎢w11w21w31w41w12w22w32w42w13w23w33w43⎤⎦⎥⎥⎥,b=[b1b2b3],W=[w11w12w13w21w22w23w31w32w33w41w42w43],b=[b1b2b3],

    设高和宽分别为 2 个像素的图像样本 ii 的特征为

    x(i)=[x(i)1x(i)2x(i)3x(i)4],x(i)=[x1(i)x2(i)x3(i)x4(i)],

    输出层输出为

    o(i)=[o(i)1o(i)2o(i)3],o(i)=[o1(i)o2(i)o3(i)],

    预测为狗、猫或鸡的概率分布为

    y^(i)=[y^(i)1y^(i)2y^(i)3].y^(i)=[y^1(i)y^2(i)y^3(i)].

    Softmax 回归对样本 ii 分类的矢量计算表达式为

    o(i)y^(i)=x(i)W+b,=softmax(o(i)).o(i)=x(i)W+b,y^(i)=softmax(o(i)).

    小批量样本分类的矢量计算表达式

    为了进一步提升计算效率,我们通常对小批量数据做矢量计算。广义上,给定一个小批量样本,其批量大小为 nn,输入个数(特征数)为 dd,输出个数(类别数)为 qq。设批量特征为 XRn×dX∈Rn×d。假设 softmax 回归的权重和偏差参数分别为 WRd×q,bR1×qW∈Rd×q,b∈R1×q。Softmax 回归的矢量计算表达式为

    OY^=XW+b,=softmax(O),O=XW+b,Y^=softmax(O),

    其中的加法运算使用了广播机制,O,Y^Rn×qO,Y^∈Rn×q 且这两个矩阵的第 ii 行分别为样本 ii 的输出 o(i)o(i)和概率分布 y^(i)y^(i)。

    交叉熵损失函数

    前面提到,使用 softmax 运算后可以更方便地与离散标签计算误差。我们已经知道,softmax 运算将输出变换成一个合法的类别预测分布。实际上,真实标签也可以用类别分布表达:对于样本 ii,我们构造向量 y(i)Rqy(i)∈Rq ,使得其第 y(i)y(i)(样本 ii 类别的离散数值)个元素为 1,其余为 0。这样我们的训练目标可以设为使预测概率分布 y^(i)y^(i) 尽可能接近真实的标签概率分布 y(i)y(i)。

    我们可以像线性回归那样使用平方损失函数 y^(i)y(i)2/2‖y^(i)−y(i)‖2/2。然而,想要预测分类结果正确,我们其实并不需要预测概率完全等于标签概率。例如在图像分类的例子里,如果 y(i)=3y(i)=3,那么我们只需要 y^(i)3y^3(i) 比其他两个预测值 y^(i)1y^1(i) 和 y^(i)2y^2(i) 大就行了。即使 y^(i)3y^3(i) 值为 0.6,不管其他两个预测值为多少,类别预测均正确。而平方损失则过于严格,例如 y^(i)1=y^(i)2=0.2y^1(i)=y^2(i)=0.2 比 y^(i)1=0,y^(i)2=0.4y^1(i)=0,y^2(i)=0.4的损失要小很多,虽然两者都有同样正确的分类预测结果。

    改善上述问题的一个方法是使用更适合衡量两个概率分布差异的测量函数。其中,交叉熵(cross entropy)是一个常用的衡量方法:

    H(y(i),y^(i))=j=1qy(i)jlogy^(i)j,H(y(i),y^(i))=−∑j=1qyj(i)log⁡y^j(i),

    其中带下标的 y(i)jyj(i) 是向量 y(i)y(i) 中非 0 即 1 的元素,需要注意将它与样本 ii 类别的离散数值,即不带下标的 y(i)y(i) 区分。在上式中,我们知道向量 y(i)y(i) 中只有第 y(i)y(i) 个元素 y(i)y(i)yy(i)(i) 为 1,其余全为 0,于是 H(y(i),y^(i))=logy^(i)y(i)H(y(i),y^(i))=−log⁡y^y(i)(i)。也就是说,交叉熵只关心对正确类别的预测概率,因为只要其值足够大,我们就可以确保分类结果正确。当然,遇到一个样本有多个标签时,例如图像里含有不止一个物体时,我们并不能做这一步简化。但即便对于这种情况,交叉熵同样只关心对图像中出现的物体类别的预测概率。

    假设训练数据集的样本数为 nn,交叉熵损失函数定义为

    (Θ)=1ni=1nH(y(i),y^(i)),ℓ(Θ)=1n∑i=1nH(y(i),y^(i)),

    其中 ΘΘ 代表模型参数。同样地,如果每个样本只有一个标签,那么交叉熵损失可以简写成 (Θ)=(1/n)ni=1logy^(i)y(i)ℓ(Θ)=−(1/n)∑i=1nlog⁡y^y(i)(i)。从另一个角度来看,我们知道最小化 (Θ)ℓ(Θ) 等价于最大化 exp(n(Θ))=ni=1y^(i)y(i)exp⁡(−nℓ(Θ))=∏i=1ny^y(i)(i),即最小化交叉熵损失函数等价于最大化训练数据集所有标签类别的联合预测概率。

  • 相关阅读:
    PAT 甲级 1027 Colors in Mars
    PAT 甲级 1026 Table Tennis(模拟)
    PAT 甲级 1025 PAT Ranking
    PAT 甲级 1024 Palindromic Number
    PAT 甲级 1023 Have Fun with Numbers
    PAT 甲级 1021 Deepest Root (并查集,树的遍历)
    Java实现 蓝桥杯VIP 算法训练 无权最长链
    Java实现 蓝桥杯VIP 算法训练 无权最长链
    Java实现 蓝桥杯 算法提高 抽卡游戏
    Java实现 蓝桥杯 算法提高 抽卡游戏
  • 原文地址:https://www.cnblogs.com/codehome/p/9897314.html
Copyright © 2011-2022 走看看