zoukankan      html  css  js  c++  java
  • 逻辑回归-6.解决多分类问题

    逻辑回归是使用回归的方式来解决分类问题。之前说过,逻辑回归只能解决二分类问题,为了解决多分类问题,可以使用OVR和OVO方法

    • OVR(One Vs Rest)
      某个分类算法有N类,将某一类和剩余的类比较作为二分类问题,N个类别进行N次分类,得到N个二分类模型,给定一个新的样本点,求出每种二分类对应的概率,概率最高的一类作为新样本的预测结果。

    • OVO(One Vs One)
      某个分类算法有N类,将某一类和另一类比较作为二分类问题,总共可分为(C^2_n)种不同的二分类模型,给定一个新的样本点,求出每种二分类对应的概率,概率最高的一类作为新样本的预测结果。

    加载鸢尾花数据集(数据集有三类结果):

    import numpy
    from sklearn import datasets
    from sklearn.model_selection import train_test_split
    
    iris = datasets.load_iris()
    # 为了数据可视化,只取数据集的前两个特征
    x = iris.data[:,:2]
    y = iris.target
    x_train,x_test,y_train,y_test = train_test_split(x,y,random_state=666)
    

    scikit-learn中默认支持多分类,且多分类方法默认为OVR

    from sklearn.linear_model import LogisticRegression
    
    log_reg = LogisticRegression()
    log_reg.fit(x_train,y_train)
    

    画出决策边界:

    使用OVO多分类方法:

    log_reg2 = LogisticRegression(multi_class='multinomial',solver='newton-cg')
    log_reg2.fit(x_train,y_train)
    

    scikit-learn中的OVR和OVO类¶

    from sklearn.multiclass import OneVsRestClassifier,OneVsOneClassifier
    
    # 使数据所有的特征值参与运算
    x = iris.data
    y = iris.target
    x_train,x_test,y_train,y_test = train_test_split(x,y,random_state=666)
    
    • OVR
    log_reg1 = LogisticRegression()
    OVR = OneVsRestClassifier(log_reg1)
    OVR.fit(x_train,y_train)
    

    准确率:

    • OVO
    log_reg2 = LogisticRegression()
    OVR = OneVsRestClassifier(log_reg2)
    OVR.fit(x_train,y_train)
    

    准确率:

  • 相关阅读:
    打开虚拟机导致电脑蓝屏
    jmeter访问接口后返回的数据乱码
    使用jmeter批量对新增账号初始化操作
    使用jmeter参数化时在数据中匹配11位的手机号并分组操作
    vsphere vdp备份情况导出
    grep的完全匹配(不是-w)
    win10右键新建md文件,亲测有效
    信步漫谈之Wiki知识库——搭建dokuwiki
    vim操作学习
    writev函数
  • 原文地址:https://www.cnblogs.com/shuai-long/p/11508760.html
Copyright © 2011-2022 走看看