zoukankan      html  css  js  c++  java
  • 对数几率回归

    对数几率回归
    对数几率回归(logistic regression),又称为逻辑回归,虽然它的名字是“回归”,但实际却是一种分类学习方法,那为什么“回归”?个人觉得是因为它跟线性回归的公式有点关联。 对数几率函数是sigmoid函数。

    1、模型
    线性回归:z=w∗x+b z = w*x+ bz=w∗x+b
    逻辑回归:y=11+e−z y = frac{1}{1+e^{-z}}y=
    1+e
    −z

    1

    线性回归只能做数值预测,不能做分类,而阶跃函数y=sign(z) y = sign(z)y=sign(z)适合做二类分类:

    y={0,1,z≤0z>0 y = egin{cases}0, & {z≤0} \1, & {z>0} \end{cases}y={
    0,
    1,


    z≤0
    z>0

    但由于阶跃函数是不连续的,不能单调可微,因此我们需要找一个代替函数,而对数几率函数下是这样一个常用的替代函数:

    y=11+e−x y = frac{1}{1+e^{-x}}
    y=
    1+e
    −x

    1


    使用sigmoid函数有以下优点:

    1、连续性好,单调可微
    2、输入值范围(-∞,∞),输出值范围(0,1),满足概率分布

    2、损失函数
    y=11+e−x y = frac{1}{1+e^{-x}}y=
    1+e
    −x

    1

    可化为 lny1−y=x lnfrac{y}{1-y} = xln
    1−y
    y

    =x 的形式,
    显然,如果将y yy视为样本x xx作为正例的可能性,那1−y 1-y1−y是其反例的可能性,两者的比值就是y1−y frac{y}{1-y}
    1−y
    y

    ,称之为“几率”, lny1−y lnfrac{y}{1-y}ln
    1−y
    y

    则是“对数几率”。

    那么,

    正列的概率:p(y=1∣x)=11+e−x=ex1+ex p(y=1|x) = frac{1}{1+e^{-x}} = frac{e^x}{1+e^x}p(y=1∣x)=
    1+e
    −x

    1

    =
    1+e
    x

    e
    x


    ;记作:p1=ex1+ex p_1 = frac{e^x}{1+e^x}p
    1

    =
    1+e
    x

    e
    x



    反例的概率:p(y=0∣x)=e−x1+e−x=11+ex p(y=0|x) = frac{e^{-x}}{1+e^{-x}} = frac{1}{1+e^x}p(y=0∣x)=
    1+e
    −x

    e
    −x


    =
    1+e
    x

    1

    .记作:p0=11+ex p_0 = frac{1}{1+e^x}p
    0

    =
    1+e
    x

    1

    使用极大似然法估计参数,则我们要最大化函数

    ∏mi=1(yi∗p1+(1−yi)∗p0) prod^m_{i=1}(y_i*p_1 + (1-y_i)*p_0)∏
    i=1
    m

    (y
    i

    ∗p
    1

    +(1−y
    i

    )∗p
    0

    )

    但是,现实运用中,我们的数据有十几万,甚至几百万个,而概率的值在区间(0,1)内,这么多概率相乘,结果必然是非常非常之小,我们可以用和代替乘法,这样就可以解决这个问题了:
    我们知道ln(a∗b)=lna+lnb ln(a*b) = lna+lnbln(a∗b)=lna+lnb,所以我们对概率进行对数运算,我们要最大化以下概率函数

    ∑mi=1(yi∗lnp1+(1−yi)∗lnp0) sum^m_{i=1}(y_i*lnp_1 + (1-y_i)*lnp_0)∑
    i=1
    m

    (y
    i

    ∗lnp
    1

    +(1−y
    i

    )∗lnp
    0

    )

    但由于损失函数是要将值降到最低的,因此:
    损失函数:

    l(w,b)=−∑mi=1(yi∗lnp1+(1−yi)∗lnp0) l(w,b) = -sum^m_{i=1}(y_i*lnp_1 + (1-y_i)*lnp_0)
    l(w,b)=−
    i=1

    m

    (y
    i

    ∗lnp
    1

    +(1−y
    i

    )∗lnp
    0

    )

    化简:

    l(w,b)=−∑mi=1(yi∗lnp1+(1−yi)∗lnp0) l(w,b) = -sum^m_{i=1}(y_i*lnp_1 + (1-y_i)*lnp_0)l(w,b)=−∑
    i=1
    m

    (y
    i

    ∗lnp
    1

    +(1−y
    i

    )∗lnp
    0

    )
    =−∑mi=1(yi∗lnez1+ez+(1−yi)∗ln11+ez) = -sum^{m}_{i=1}(y_i*lnfrac{e^z}{1+e^z}+ (1-y_i)*lnfrac{1}{1+e^z})=−∑
    i=1
    m

    (y
    i

    ∗ln
    1+e
    z

    e
    z


    +(1−y
    i

    )∗ln
    1+e
    z

    1

    )
    =−∑mi=1(yi∗ln(ez1+ez∗1+ez1)+ln11+ez) = -sum^m_{i=1}(y_i*ln(frac{e^z}{1+e^z}*frac{1+e^z}{1})+ lnfrac{1}{1+e^z})=−∑
    i=1
    m

    (y
    i

    ∗ln(
    1+e
    z

    e
    z



    1
    1+e
    z


    )+ln
    1+e
    z

    1

    )
    =−∑mi=1(yi∗lnez+ln11+ez) = -sum^m_{i=1}(y_i*lne^z+ lnfrac{1}{1+e^z})=−∑
    i=1
    m

    (y
    i

    ∗lne
    z
    +ln
    1+e
    z

    1

    )
    =∑mi=1−yi∗z−ln11+ez = sum^m_{i=1}-y_i*z - lnfrac{1}{1+e^z}=∑
    i=1
    m

    −y
    i

    ∗z−ln
    1+e
    z

    1


    =∑mi=1(−yi∗z+ln(1+ez)) = sum^m_{i=1}(-y_i*z + ln(1+e^z))=∑
    i=1
    m

    (−y
    i

    ∗z+ln(1+e
    z
    ))
    =∑mi=1(−yi∗(w∗x+b)+ln(1+ew∗x+b)) = sum^m_{i=1}(-y_i*(w*x+ b) + ln(1+e^{w*x+ b}))=∑
    i=1
    m

    (−y
    i

    ∗(w∗x+b)+ln(1+e
    w∗x+b
    ))

    根据凸优化理论,经典的数值优化算法如梯度下降法、牛顿法等都可求得其最优解。

    3、scikit-learn中的对数几率回归
    from sklearn.linear_model import LogisticRegression
    model = LogisticRegression()
    model.fit(train_X, train_y)

    4、LogisticRegression 参数说明
    penalty:惩罚项,str类型,可选参数为l1和l2,默认为l2。用于指定惩罚项中使用的规范。newton-cg、sag和lbfgs求解算法只支持L2规范。L1G规范假设的是模型的参数满足拉普拉斯分布,L2假设的模型参数满足高斯分布,所谓的范式就是加上对参数的约束,使得模型更不会过拟合(overfit),但是如果要说是不是加了约束就会好,这个没有人能回答,只能说,加约束的情况下,理论上应该可以获得泛化能力更强的结果。

    dual:对偶或原始方法,bool类型,默认为False。对偶方法只用在求解线性多核(liblinear)的L2惩罚项上。当样本数量>样本特征的时候,dual通常设置为False。

    tol:停止求解的标准,float类型,默认为1e-4。就是求解到多少的时候,停止,认为已经求出最优解。

    c:正则化系数λ的倒数,float类型,默认为1.0。必须是正浮点型数。像SVM一样,越小的数值表示越强的正则化。

    fit_intercept:是否存在截距或偏差,bool类型,默认为True。

    intercept_scaling:仅在正则化项为”liblinear”,且fit_intercept设置为True时有用。float类型,默认为1。

    class_weight:用于标示分类模型中各种类型的权重,可以是一个字典或者’balanced’字符串,默认为不输入,也就是不考虑权重,即为None。如果选择输入的话,可以选择balanced让类库自己计算类型权重,或者自己输入各个类型的权重。举个例子,比如对于0,1的二元模型,我们可以定义class_weight={0:0.9,1:0.1},这样类型0的权重为90%,而类型1的权重为10%。如果class_weight选择balanced,那么类库会根据训练样本量来计算权重。某种类型样本量越多,则权重越低,样本量越少,则权重越高。当class_weight为balanced时,类权重计算方法如下:n_samples / (n_classes * np.bincount(y))。n_samples为样本数,n_classes为类别数量,np.bincount(y)会输出每个类的样本数,例如y=[1,0,0,1,1],则np.bincount(y)=[2,3]。

    那么class_weight有什么作用呢?
    在分类模型中,我们经常会遇到两类问题:
    第一种是误分类的代价很高。比如对合法用户和非法用户进行分类,将非法用户分类为合法用户的代价很高,我们宁愿将合法用户分类为非法用户,这时可以人工再甄别,但是却不愿将非法用户分类为合法用户。这时,我们可以适当提高非法用户的权重。
    第二种是样本是高度失衡的,比如我们有合法用户和非法用户的二元样本数据10000条,里面合法用户有9995条,非法用户只有5条,如果我们不考虑权重,则我们可以将所有的测试集都预测为合法用户,这样预测准确率理论上有99.95%,但是却没有任何意义。这时,我们可以选择balanced,让类库自动提高非法用户样本的权重。提高了某种分类的权重,相比不考虑权重,会有更多的样本分类划分到高权重的类别,从而可以解决上面两类问题。

    random_state:随机数种子,int类型,可选参数,默认为无,仅在正则化优化算法为sag,liblinear时有用。

    solver:优化算法选择参数,只有五个可选参数,即newton-cg,lbfgs,liblinear,sag,saga。默认为liblinear。solver参数决定了我们对逻辑回归损失函数的优化方法,有四种算法可以选择,分别是:
    liblinear:使用了开源的liblinear库实现,内部使用了坐标轴下降法来迭代优化损失函数。
    lbfgs:拟牛顿法的一种,利用损失函数二阶导数矩阵即海森矩阵来迭代优化损失函数。
    newton-cg:也是牛顿法家族的一种,利用损失函数二阶导数矩阵即海森矩阵来迭代优化损失函数。
    sag:即随机平均梯度下降,是梯度下降法的变种,和普通梯度下降法的区别是每次迭代仅仅用一部分的样本来计算梯度,适合于样本数据多的时候。
    saga:线性收敛的随机优化算法的的变重。

    总结:
    liblinear适用于小数据集,而sag和saga适用于大数据集因为速度更快。
    对于多分类问题,只有newton-cg,sag,saga和lbfgs能够处理多项损失,而liblinear受限于一对剩余(OvR)。啥意思,就是用liblinear的时候,如果是多分类问题,得先把一种类别作为一个类别,剩余的所有类别作为另外一个类别。一次类推,遍历所有类别,进行分类。
    newton-cg,sag和lbfgs这三种优化算法时都需要损失函数的一阶或者二阶连续导数,因此不能用于没有连续导数的L1正则化,只能用于L2正则化。而liblinear和saga通吃L1正则化和L2正则化。
    同时,sag每次仅仅使用了部分样本进行梯度迭代,所以当样本量少的时候不要选择它,而如果样本量非常大,比如大于10万,sag是第一选择。但是sag不能用于L1正则化,所以当你有大量的样本,又需要L1正则化的话就要自己做取舍了。要么通过对样本采样来降低样本量,要么回到L2正则化。
    从上面的描述,大家可能觉得,既然newton-cg, lbfgs和sag这么多限制,如果不是大样本,我们选择liblinear不就行了嘛!错,因为liblinear也有自己的弱点!我们知道,逻辑回归有二元逻辑回归和多元逻辑回归。对于多元逻辑回归常见的有one-vs-rest(OvR)和many-vs-many(MvM)两种。而MvM一般比OvR分类相对准确一些。郁闷的是liblinear只支持OvR,不支持MvM,这样如果我们需要相对精确的多元逻辑回归时,就不能选择liblinear了。也意味着如果我们需要相对精确的多元逻辑回归不能使用L1正则化了。

    max_iter:算法收敛最大迭代次数,int类型,默认为10。仅在正则化优化算法为newton-cg, sag和lbfgs才有用,算法收敛的最大迭代次数。

    multi_class:分类方式选择参数,str类型,可选参数为ovr和multinomial,默认为ovr。ovr即前面提到的one-vs-rest(OvR),而multinomial即前面提到的many-vs-many(MvM)。如果是二元逻辑回归,ovr和multinomial并没有任何区别,区别主要在多元逻辑回归上。

    OvR和MvM有什么不同*?*
    OvR的思想很简单,无论你是多少元逻辑回归,我们都可以看做二元逻辑回归。具体做法是,对于第K类的分类决策,我们把所有第K类的样本作为正例,除了第K类样本以外的所有样本都作为负例,然后在上面做二元逻辑回归,得到第K类的分类模型。其他类的分类模型获得以此类推。
    而MvM则相对复杂,这里举MvM的特例one-vs-one(OvO)作讲解。如果模型有T类,我们每次在所有的T类样本里面选择两类样本出来,不妨记为T1类和T2类,把所有的输出为T1和T2的样本放在一起,把T1作为正例,T2作为负例,进行二元逻辑回归,得到模型参数。我们一共需要T(T-1)/2次分类。
    可以看出OvR相对简单,但分类效果相对略差(这里指大多数样本分布情况,某些样本分布下OvR可能更好)。而MvM分类相对精确,但是分类速度没有OvR快。如果选择了ovr,则4种损失函数的优化方法liblinear,newton-cg,lbfgs和sag都可以选择。但是如果选择了multinomial,则只能选择newton-cg, lbfgs和sag了。

    verbose:日志冗长度,int类型。默认为0。就是不输出训练过程,1的时候偶尔输出结果,大于1,对于每个子模型都输出。

    warm_start:热启动参数,bool类型。默认为False。如果为True,则下一次训练是以追加树的形式进行(重新使用上一次的调用作为初始化)。

    n_jobs:并行数。int类型,默认为1。1的时候,用CPU的一个内核运行程序,2的时候,用CPU的2个内核运行程序。为-1的时候,用所有CPU的内核运行程序。
    ---------------------
    作者:火鸡哥
    来源:CSDN
    原文:https://blog.csdn.net/u012587024/article/details/81456994
    版权声明:本文为博主原创文章,转载请附上博文链接!

  • 相关阅读:
    高低 接口
    算法
    一致连续性定理
    Brouwer fixed-point theorem
    minimum viable product
    Python星号*与**用法分析 What does ** (double star/asterisk) and * (star/asterisk) do for parameters? 必选参数 默认参数 可变参数 关键字参数
    zabbix 添加主机接口
    zabbix 添加主机接口
    zabbix 添加主机成功失败判断
    zabbix 添加主机成功失败判断
  • 原文地址:https://www.cnblogs.com/jfdwd/p/11204370.html
Copyright © 2011-2022 走看看