zoukankan      html  css  js  c++  java
  • 机器学习-逻辑回归

    一、概述

    Logistic回归是众多分类算法中的一员。通常,Logistic回归用于二分类问题,例如预测明天是否会下雨。当然它也可以用于多分类问题。

    二、算法

    Logistic回归

    假设现在有一些数据点,我们利用一条直线对这些点进行拟合(该线称为最佳拟合直线),这个拟合过程就称作为回归,如下图所示:

    机器学习实战教程(六):Logistic回归基础篇之梯度上升算法

    Logistic回归是分类方法,它利用的是Sigmoid函数阈值在[0,1]这个特性。Logistic回归进行分类的主要思想是:根据现有数据对分类边界线建立回归公式,以此进行分类。其实,Logistic本质上是一个基于条件概率的判别模型(Discriminative Model)。

    所以要想了解Logistic回归,我们必须先看一看Sigmoid函数 ,我们也可以称它为Logistic函数。它的公式如下:

    机器学习实战教程(六):Logistic回归基础篇之梯度上升算法

    机器学习实战教程(六):Logistic回归基础篇之梯度上升算法

    机器学习实战教程(六):Logistic回归基础篇之梯度上升算法

    整合成一个公式,就变成了如下公式:

    机器学习实战教程(六):Logistic回归基础篇之梯度上升算法

    下面这张图片,为我们展示了Sigmoid函数的样子。

    机器学习实战教程(六):Logistic回归基础篇之梯度上升算法

    z是一个矩阵,θ是参数列向量(要求解的),x是样本列向量(给定的数据集)。θ^T表示θ的转置。g(z)函数实现了任意实数到[0,1]的映射,这样我们的数据集([x0,x1,...,xn]),不管是大于1或者小于0,都可以映射到[0,1]区间进行分类。hθ(x)给出了输出为1的概率。比如当hθ(x)=0.7,那么说明有70%的概率输出为1。输出为0的概率是输出为1的补集,也就是30%。

    如果我们有合适的参数列向量θ([θ0,θ1,...θn]^T),以及样本列向量x([x0,x1,...,xn]),那么我们对样本x分类就可以通过上述公式计算出一个概率,如果这个概率大于0.5,我们就可以说样本是正样本,否则样本是负样本。

    举个例子,对于"垃圾邮件判别问题",对于给定的邮件(样本),我们定义非垃圾邮件为正类,垃圾邮件为负类。我们通过计算出的概率值即可判定邮件是否是垃圾邮件。

    那么问题来了!如何得到合适的参数向量θ?

    根据sigmoid函数的特性,我们可以做出如下的假设:

    机器学习实战教程(六):Logistic回归基础篇之梯度上升算法

    式即为在已知样本x和参数θ的情况下,样本x属性正样本(y=1)和负样本(y=0)的条件概率。理想状态下,根据上述公式,求出各个点的概率均为1,也就是完全分类都正确。但是考虑到实际情况,样本点的概率越接近于1,其分类效果越好。比如一个样本属于正样本的概率为0.51,那么我们就可以说明这个样本属于正样本。另一个样本属于正样本的概率为0.99,那么我们也可以说明这个样本属于正样本。但是显然,第二个样本概率更高,更具说服力。我们可以把上述两个概率公式合二为一:

    机器学习实战教程(六):Logistic回归基础篇之梯度上升算法

    合并出来的Cost,我们称之为代价函数(Cost Function)。当y等于1时,(1-y)项(第二项)为0;当y等于0时,y项(第一项)为0。为了简化问题,我们对整个表达式求对数,(将指数问题对数化是处理数学问题常见的方法):

    机器学习实战教程(六):Logistic回归基础篇之梯度上升算法

    这个代价函数,是对于一个样本而言的。给定一个样本,我们就可以通过这个代价函数求出,样本所属类别的概率,而这个概率越大越好,所以也就是求解这个代价函数的最大值。既然概率出来了,那么最大似然估计也该出场了。假定样本与样本之间相互独立,那么整个样本集生成的概率即为所有样本生成概率的乘积,再将公式对数化,便可得到如下公式:

    机器学习实战教程(六):Logistic回归基础篇之梯度上升算法

    其中,m为样本的总数,y(i)表示第i个样本的类别,x(i)表示第i个样本,需要注意的是θ是多维向量,x(i)也是多维向量。

    综上所述,满足J(θ)的最大的θ值即是我们需要求解的模型。

    怎么求解使J(θ)最大的θ值呢?因为是求最大值,所以我们需要使用梯度上升算法。如果面对的问题是求解使J(θ)最小的θ值,那么我们就需要使用梯度下降算法。面对我们这个问题,如果使J(θ) := -J(θ),那么问题就从求极大值转换成求极小值了,使用的算法就从梯度上升算法变成了梯度下降算法,它们的思想都是相同的,学会其一,就也会了另一个。本文使用梯度上升算法进行求解。

    2、梯度上升算法

    说了半天,梯度上升算法又是啥?J(θ)太复杂,我们先看个简单的求极大值的例子。一个看了就会想到高中生活的函数:

    机器学习实战教程(六):Logistic回归基础篇之梯度上升算法

    来吧,做高中题。这个函数的极值怎么求?显然这个函数开口向下,存在极大值,它的函数图像为:

    机器学习实战教程(六):Logistic回归基础篇之梯度上升算法

    求极值,先求函数的导数:

    机器学习实战教程(六):Logistic回归基础篇之梯度上升算法

    令导数为0,可求出x=2即取得函数f(x)的极大值。极大值等于f(2)=4

    但是真实环境中的函数不会像上面这么简单,就算求出了函数的导数,也很难精确计算出函数的极值。此时我们就可以用迭代的方法来做。就像爬坡一样,一点一点逼近极值。这种寻找最佳拟合参数的方法,就是最优化算法。爬坡这个动作用数学公式表达即为:

    机器学习实战教程(六):Logistic回归基础篇之梯度上升算法

    其中,α为步长,也就是学习速率,控制更新的幅度。效果如下图所示:

    机器学习实战教程(六):Logistic回归基础篇之梯度上升算法

    比如从(0,0)开始,迭代路径就是1->2->3->4->...->n,直到求出的x为函数极大值的近似值,停止迭代。

    J(θ)这个函数的极值,也可以这么求解。公式可以这么写:

    机器学习实战教程(六):Logistic回归基础篇之梯度上升算法

    由上小节可知J(θ)为:

    机器学习实战教程(六):Logistic回归基础篇之梯度上升算法

    sigmoid函数为:

    机器学习实战教程(六):Logistic回归基础篇之梯度上升算法

    那么,现在我只要求出J(θ)的偏导,就可以利用梯度上升算法,求解J(θ)的极大值了。

    那么现在开始求解J(θ)对θ的偏导,求解如下:

    机器学习实战教程(六):Logistic回归基础篇之梯度上升算法

    其中:

    机器学习实战教程(六):Logistic回归基础篇之梯度上升算法

    再由:

    机器学习实战教程(六):Logistic回归基础篇之梯度上升算法

    可得:

    机器学习实战教程(六):Logistic回归基础篇之梯度上升算法

    接下来,就剩下第三部分:

    机器学习实战教程(六):Logistic回归基础篇之梯度上升算法

    综上所述:

    机器学习实战教程(六):Logistic回归基础篇之梯度上升算法

    因此,梯度上升迭代公式为:

    机器学习实战教程(六):Logistic回归基础篇之梯度上升算法

    知道了,梯度上升迭代公式,我们就可以自己编写代码,计算最佳拟合参数了。

    三、使用

    Logistic回归的一般过程:

    • 收集数据:采用任意方法收集数据。
    • 准备数据:由于需要进行距离计算,因此要求数据类型为数值型。另外,结构化数据格式则最佳。
    • 分析数据:采用任意方法对数据进行分析。
    • 训练算法:大部分时间将用于训练,训练的目的是为了找到最佳的分类回归系数。
    • 测试算法:一旦训练步骤完成,分类将会很快。
    • 使用算法:首先,我们需要输入一些数据,并将其转换成对应的结构化数值;接着,基于训练好的回归系数,就可以对这些数值进行简单的回归计算,判定它们属于哪个类别;在这之后,我们就可以在输出的类别上做一些其他分析工作。

    四、参数

    使用Sklearn构建Logistic回归分类器

    开始新一轮的征程,让我们看下Sklearn的Logistic回归分类器!

    官方英文文档地址:

    sklearn.linear_model模块提供了很多模型供我们使用,比如Logistic回归、Lasso回归、贝叶斯脊回归等,可见需要学习的东西还有很多很多。本篇文章,我们使用LogisticRegressioin。

    机器学习实战教程(七):Logistic回归实战篇之预测病马死亡率

    1、LogisticRegression

    让我们先看下LogisticRegression这个函数,一共有14个参数:

    机器学习实战教程(七):Logistic回归实战篇之预测病马死亡率

    参数说明如下:

    • penalty:惩罚项,str类型,可选参数为l1和l2,默认为l2。用于指定惩罚项中使用的规范。newton-cg、sag和lbfgs求解算法只支持L2规范。L1规范假设的是模型的参数满足拉普拉斯分布,L2假设的模型参数满足高斯分布,所谓的范式就是加上对参数的约束,使得模型更不会过拟合(overfit),但是如果要说是不是加了约束就会好,这个没有人能回答,只能说,加约束的情况下,理论上应该可以获得泛化能力更强的结果。
    • dual:对偶或原始方法,bool类型,默认为False。对偶方法只用在求解线性多核(liblinear)的L2惩罚项上当样本数量>样本特征的时候,dual通常设置为False
    • tol:停止求解的标准,float类型,默认为1e-4。就是求解到多少的时候,停止,认为已经求出最优解。
    • c:正则化系数λ的倒数,float类型,默认为1.0。必须是正浮点型数。像SVM一样,越小的数值表示越强的正则化。
    • fit_intercept:是否存在截距或偏差,bool类型,默认为True。
    • intercept_scaling:仅在正则化项为"liblinear",且fit_intercept设置为True时有用。float类型,默认为1。
    • class_weight:用于标示分类模型中各种类型的权重,可以是一个字典或者'balanced'字符串,默认为不输入,也就是不考虑权重,即为None。如果选择输入的话,可以选择balanced让类库自己计算类型权重,或者自己输入各个类型的权重。举个例子,比如对于0,1的二元模型,我们可以定义class_weight={0:0.9,1:0.1},这样类型0的权重为90%,而类型1的权重为10%。如果class_weight选择balanced,那么类库会根据训练样本量来计算权重。某种类型样本量越多,则权重越低,样本量越少,则权重越高。当class_weight为balanced时,类权重计算方法如下:n_samples / (n_classes * np.bincount(y))。n_samples为样本数,n_classes为类别数量,np.bincount(y)会输出每个类的样本数,例如y=[1,0,0,1,1],则np.bincount(y)=[2,3]。
      • 那么class_weight有什么作用呢?
        • 在分类模型中,我们经常会遇到两类问题:
        • 1.第一种是误分类的代价很高。比如对合法用户和非法用户进行分类,将非法用户分类为合法用户的代价很高,我们宁愿将合法用户分类为非法用户,这时可以人工再甄别,但是却不愿将非法用户分类为合法用户。这时,我们可以适当提高非法用户的权重。
        • 2. 第二种是样本是高度失衡的,比如我们有合法用户和非法用户的二元样本数据10000条,里面合法用户有9995条,非法用户只有5条,如果我们不考虑权重,则我们可以将所有的测试集都预测为合法用户,这样预测准确率理论上有99.95%,但是却没有任何意义。这时,我们可以选择balanced,让类库自动提高非法用户样本的权重。提高了某种分类的权重,相比不考虑权重,会有更多的样本分类划分到高权重的类别,从而可以解决上面两类问题。
    • random_state:随机数种子,int类型,可选参数,默认为无,仅在正则化优化算法为sag,liblinear时有用。
    • solver:优化算法选择参数,只有五个可选参数,即newton-cg,lbfgs,liblinear,sag,saga。默认为liblinear。solver参数决定了我们对逻辑回归损失函数的优化方法,有四种算法可以选择,分别是:
      • liblinear:使用了开源的liblinear库实现,内部使用了坐标轴下降法来迭代优化损失函数。
      • lbfgs:拟牛顿法的一种,利用损失函数二阶导数矩阵即海森矩阵来迭代优化损失函数。
      • newton-cg:也是牛顿法家族的一种,利用损失函数二阶导数矩阵即海森矩阵来迭代优化损失函数。
      • sag:即随机平均梯度下降,是梯度下降法的变种,和普通梯度下降法的区别是每次迭代仅仅用一部分的样本来计算梯度,适合于样本数据多的时候。
      • saga:线性收敛的随机优化算法的的变重。
      • 总结:
        • liblinear适用于小数据集,而sag和saga适用于大数据集因为速度更快。
        • 对于多分类问题,只有newton-cg,sag,saga和lbfgs能够处理多项损失,而liblinear受限于一对剩余(OvR)。啥意思,就是用liblinear的时候,如果是多分类问题,得先把一种类别作为一个类别,剩余的所有类别作为另外一个类别。一次类推,遍历所有类别,进行分类。
        • newton-cg,sag和lbfgs这三种优化算法时都需要损失函数的一阶或者二阶连续导数,因此不能用于没有连续导数的L1正则化,只能用于L2正则化。而liblinear和saga通吃L1正则化和L2正则化。
        • 同时,sag每次仅仅使用了部分样本进行梯度迭代,所以当样本量少的时候不要选择它,而如果样本量非常大,比如大于10万,sag是第一选择。但是sag不能用于L1正则化,所以当你有大量的样本,又需要L1正则化的话就要自己做取舍了。要么通过对样本采样来降低样本量,要么回到L2正则化。
        • 从上面的描述,大家可能觉得,既然newton-cg, lbfgs和sag这么多限制,如果不是大样本,我们选择liblinear不就行了嘛!错,因为liblinear也有自己的弱点!我们知道,逻辑回归有二元逻辑回归和多元逻辑回归。对于多元逻辑回归常见的有one-vs-rest(OvR)和many-vs-many(MvM)两种。而MvM一般比OvR分类相对准确一些。郁闷的是liblinear只支持OvR,不支持MvM,这样如果我们需要相对精确的多元逻辑回归时,就不能选择liblinear了。也意味着如果我们需要相对精确的多元逻辑回归不能使用L1正则化了。
    • max_iter:算法收敛最大迭代次数,int类型,默认为10仅在正则化优化算法为newton-cg, sag和lbfgs才有用,算法收敛的最大迭代次数。
    • multi_class:分类方式选择参数,str类型,可选参数为ovr和multinomial,默认为ovr。ovr即前面提到的one-vs-rest(OvR),而multinomial即前面提到的many-vs-many(MvM)。如果是二元逻辑回归,ovr和multinomial并没有任何区别,区别主要在多元逻辑回归上。
      • OvR和MvM有什么不同?
        • OvR的思想很简单,无论你是多少元逻辑回归,我们都可以看做二元逻辑回归。具体做法是,对于第K类的分类决策,我们把所有第K类的样本作为正例,除了第K类样本以外的所有样本都作为负例,然后在上面做二元逻辑回归,得到第K类的分类模型。其他类的分类模型获得以此类推。
        • 而MvM则相对复杂,这里举MvM的特例one-vs-one(OvO)作讲解。如果模型有T类,我们每次在所有的T类样本里面选择两类样本出来,不妨记为T1类和T2类,把所有的输出为T1和T2的样本放在一起,把T1作为正例,T2作为负例,进行二元逻辑回归,得到模型参数。我们一共需要T(T-1)/2次分类。
        • 可以看出OvR相对简单,但分类效果相对略差(这里指大多数样本分布情况,某些样本分布下OvR可能更好)。而MvM分类相对精确,但是分类速度没有OvR快。如果选择了ovr,则4种损失函数的优化方法liblinear,newton-cg,lbfgs和sag都可以选择。但是如果选择了multinomial,则只能选择newton-cg, lbfgs和sag了。
    • verbose:日志冗长度,int类型。默认为0。就是不输出训练过程,1的时候偶尔输出结果,大于1,对于每个子模型都输出。
    • warm_start:热启动参数,bool类型。默认为False。如果为True,则下一次训练是以追加树的形式进行(重新使用上一次的调用作为初始化)。
    • n_jobs:并行数。int类型,默认为1。1的时候,用CPU的一个内核运行程序,2的时候,用CPU的2个内核运行程序。为-1的时候,用所有CPU的内核运行程序。

    除此之外,LogisticRegression也有一些方法供我们使用:

    机器学习实战教程(七):Logistic回归实战篇之预测病马死亡率

    有一些方法和MultinomialNB的方法都是类似的,因此不再累述。

    对于每个函数的具体使用,可以看下官方文档:https://scikit-learn.org/dev/modules/generated/sklearn.linear_model.LogisticRegression.html

    同时,如果对于过拟合、正则化、L1范数、L2范数不了解的,可以看这位大牛的博客:https://blog.csdn.net/zouxy09/article/details/24971995

    五、特别之处

    • 当数据集较小时,我们使用梯度上升算法
    • 当数据集较大时,我们使用改进的随机梯度上升算法
    • 在Sklearn中,我们就可以根据数据情况选择优化算法,比如数据较小的时候,我们使用liblinear,数据较大时,我们使用sag和saga。

    1、Logistic回归的优缺点

    优点:

    • 实现简单,易于理解和实现;计算代价不高,速度很快,存储资源低。

    缺点:

    • 容易欠拟合,分类精度可能不高。

    2、其他

    • Logistic回归的目的是寻找一个非线性函数Sigmoid的最佳拟合参数,求解过程可以由最优化算法完成。
    • 改进的一些最优化算法,比如sag。它可以在新数据到来时就完成参数更新,而不需要重新读取整个数据集来进行批量处理。
    • 机器学习的一个重要问题就是如何处理缺失数据。这个问题没有标准答案,取决于实际应用中的需求。现有一些解决方案,每种方案都各有优缺点。

    机器学习实战教程(六):Logistic回归基础篇之梯度上升算法 | Jack Cui

  • 相关阅读:
    .net开发环境的选择
    html头部的一些信息
    SQLHelper类
    C#实现文件下载
    js类
    Winform小知识点
    emacs 代码缩进
    自己喜欢的shell终端配置
    time_wait过多的优化
    Emacs 电子邮件组件RMAIL
  • 原文地址:https://www.cnblogs.com/2019-02-11/p/10597118.html
Copyright © 2011-2022 走看看