zoukankan      html  css  js  c++  java
  • 作业7-逻辑回归实践

    1.逻辑回归是怎么防止过拟合的?为什么正则化可以防止过拟合?(大家用自己的话介绍下)

    (1)逻辑回归是怎么防止过拟合的?

    1. 可以增加样本量,这是万能的方法,适用任何模型。
    2. 如果数据比较稀疏,使用L1正则,其他情况,用L2要好,可自己尝试。
    3. 通过特征选择,剔除一些不重要的特征,从而降低模型复杂度。
    4. 如果还过拟合,那就看看是否使用了过度复杂的特征构造工程,比如,某两个特征相乘/除/加等方式构造的特征,不要这样做了,保持原特征。
    5. 检查业务逻辑,判断特征有效性,是否在用结果预测结果等。
    6.最重要的,逻辑回归特有的防止过拟合方法:进行离散化处理,所有特征都离散化。

    (2)为什么正则化可以防止过拟合?

           过拟合的时候,拟合函数的系数往往非常大,就是拟合函数需要顾忌每一个点,最终形成的拟合函数波动很大。在某些很小的区间里,函数值的变化很剧烈。这就意味着函数在某些小区间里的导数值(绝对值)非常大,由于自变量值可大可小,所以只有系数足够大,才能保证导数值很大。而正则化是通过约束参数的范数使其不要太大,所以可以在一定程度上减少过拟合情况。

    2.用logiftic回归来进行实践操作,数据不限。

    #使用逻辑回归算法预测是否会得病严重程度
    import pandas as pd
    import numpy as np
    from sklearn.linear_model import LogisticRegression
    from sklearn.model_selection import train_test_split
    from sklearn.metrics import classification_report
    from sklearn.preprocessing import StandardScaler
    
    
    data=pd.read_csv("逻辑回归数据.csv") #数据读取和预处理
    data=data.replace(to_replace='?',value=np.nan) #缺失值处理
    data=data.dropna()
    x = data.iloc[:,1:10]#提取数据
    y = data.iloc[:,10]
    
    x_train, x_test, y_train, y_test=train_test_split(x, y, test_size=0.2,random_state=5)#数据切割
    
    std = StandardScaler()#标准化处理
    x_train = std.fit_transform(x_train)
    x_test = std.fit_transform(x_test)
    
    LR_model = LogisticRegression()#构建逻辑回归模型
    LR_model.fit(x_train,y_train)#训练模型
    pre = LR_model.predict(x_test)#预测模型
    
    print('模型的正确率:',LR_model.score(x_test,y_test))
    print('输出模型的分类报告:
    ',classification_report(y_test,pre,labels=[2,4],target_names=['','']))

     

  • 相关阅读:
    20200209 ZooKeeper 3. Zookeeper内部原理
    20200209 ZooKeeper 2. Zookeeper本地模式安装
    20200209 Zookeeper 1. Zookeeper入门
    20200206 尚硅谷Docker【归档】
    20200206 Docker 8. 本地镜像发布到阿里云
    20200206 Docker 7. Docker常用安装
    20200206 Docker 6. DockerFile解析
    20200206 Docker 5. Docker容器数据卷
    20200206 Docker 4. Docker 镜像
    Combining STDP and Reward-Modulated STDP in Deep Convolutional Spiking Neural Networks for Digit Recognition
  • 原文地址:https://www.cnblogs.com/kushoulder/p/12803122.html
Copyright © 2011-2022 走看看