zoukankan      html  css  js  c++  java
  • 广告数据线性回归分析

    线性回归

    线性回归是最基础的机器学习算法,它是用一条直线去拟合数据,适用于线性数据。

    线性回归包括一元线性回归和多元线性回归,一元的是只有一个x和一个y。多元的是指有多个x和一个y。 

    这里写图片描述 (一元)                      (多元)

    我们希望这些点尽量离这条直线近一点。即去找每个点和直线的距离 这里写图片描述最小的那条线,为了简单起见,将绝对值转化为平方,那么误差可以表示为这里写图片描述,这里i表示第i个数据,N表示总的样本个数。一般我们还会把Loss求和平均,来当作最终的损失, 
    这里写图片描述

    下面是利用广告数据进行线性回归模型的应用:

    如果市场的运营部门给了你一份数据,数据包含了不同广告渠道的成本及对应的产品销售量。现在的问题是:

    • 哪些渠道的广告真正影响了销售量?
    • 根据已知的渠道预算,如何实现销售量的预测?
    • 模型预测的好坏,该如何评估?

    利用Python建模

    哪些渠道的广告真正影响了销售量?对于这个问题的回答,其实就是在构建多元线性回归模型后,需要对偏回归系数进行显著性检验,把那些显著的变量保留下来,即可以认为这些变量对销售量是存在影响的。关于线性回归模型的落地,我们这里推荐使用statsmodels模块,因为该模块相比于sklearn,可以得到更多关于模型的详细信息

    广告数据下载地址:https://pan.baidu.com/s/1qYNsP0w 密码: 2g3f

    数据导入和描述统计:

    import os
    import codecs
    import numpy as np
    import pandas as pd
    import matplotlib.pyplot as plt
    import statsmodels.formula.api as smf
    from sklearn.cross_validation import train_test_split
    from sklearn.metrics import mean_squared_error
    
    os.getcwd()
    os.chdir("C:/Users/admin/Desktop/ml-100k")
    f=codecs.open('Advertising.csv', 'r')
    #print (f.read())
    #header = ['tv', 'radio', 'newspaper','sales']
    sales=pd.read_csv('Advertising.csv',sep=',')
    print(sales)
    sales.describe()

    通过数据的描述性统计分析,我们可以得到这些数值变量的基本统计值,如均值、最小值、最大值、下四分位、上四分位、标准差,而这些统计值有助于你对数据的理解和分布的解读。接下来需要根据读取进来的数据构造回归模型,但建模之前,我们一般需要将数据集拆分成训练集(用于建模)和测试集(用于模型的评估)两个部分。

    Train,Test = train_test_split(sales, train_size = 0.8, random_state= 1234)

    # 建模

    fit = smf.ols( ‘sales~TV+radio+newspaper’, data = Train).fit()

    #模型信息反馈
    fit2.summary()
    # 第一个模型的预测结果
    pred = fit.predict(exog = Test)

    通过模型反馈的结果我们可知,模型是通过显著性检验的,即F统计量所对应的P值是远远小于0.05这个阈值的,说明需要拒绝原假设(即认为模型的所有回归系数都不全为0)。

    去掉newspaper,重新建模

    fit2 = smf.ols( ‘sales~TV+radio’, data = Train.drop( ‘newspaper’, axis = 1)).fit()

    # 模型信息反馈

    fit2.summary()

    附代码

    #构造训练集和测试集
    Train,Test = train_test_split(sales, train_size = 0.8, random_state= 1234)
    #建模
    fit = smf.ols('sales~TV+radio+newspaper', data = Train).fit()
    #重新建模
    fit2=smf.ols('sales~TV+radio',data=Train.drop(columns='newspaper',axis=1)).fit()
    
    #模型信息反馈
    fit2.summary()

    通过第二次建模(模型中剔除了newspaper这个变量),结果非常明朗,一方面模型通过了显著性检验,另一方面,所有的变量也通过了显著性检验。那问题来了,难道你剔除了newspaper这个变量后,模型效果确实变好了吗?验证一个模型好不好,只需要将预测值和真实值做一个对比即可,如果模型越优秀,那预测出来的结果应该会更接近与现实数据。接下来,我们就基于fit和fit2这两个模型,分别在Test数据集上做预测:

    # 第一个模型的预测结果
    pred = fit.predict(exog = Test)
    # 第二个模型的预测结果
    pred2 = fit2.predict(exog = Test.drop(columns='newspaper', axis = 1))
    #模型效果对比
    RMSE = np.sqrt(mean_squared_error(Test.sales, pred))
    RMSE2 = np.sqrt(mean_squared_error(Test.sales, pred2))
    print( '第一个模型的预测效果:RMES=%.4f
    '%RMSE)
    print( '第二个模型的预测效果:RMES=%.4f
    '%RMSE2)

     

    对于连续变量预测效果的好坏,我们可以借助于RMSE(均方根误差,即真实值与预测值的均方根)来衡量,如果这个值越小,就说明模型越优秀,即预测出来的值会越接近于真实值。很明显,模型2的RMSE相比于模型1会小一些,模型会更符合实际。最后,我们再利用可视化的方法来刻画真实的观测点与拟合线之间的关系:

    # 真实值与预测值的关系# 设置绘图风格
    plt.style.use( 'ggplot')
    # 设置中文编码和负号的正常显示
    plt.rcParams['font.sans-serif'] = 'Microsoft YaHei'
    # 散点图
    plt.scatter(Test.sales, pred, label = '观测点')
    # 回归线
    plt.plot([Test.sales.min(),Test.sales.max()],[pred.min(),pred.max()],'r-',lw= 2,label = '拟合线')
    # 添加轴标签和标题
    plt.title('真实值VS.预测值')
    plt.xlabel('真实值')
    plt.ylabel('预测值')
    #去除图边框的顶部刻度和右边刻度
    plt.tick_params(top = 'off', right = 'off')
    # 添加图例
    plt.legend(loc = 'upper left')
    # 图形展现
    plt.show()

    从上面的关系图来看,模型确实拟合的还是蛮不错的,这些真实点基本上都在拟合线附近,并没有产生太大的差异。

    原文地址:http://www.ppvke.com/Blog/archives/53081

     
  • 相关阅读:
    面向对象七大基本原则
    JS面向对象的七大基本原则(里氏替换/依赖倒置)
    JS面向对象的七大基本原则(单一/开闭)
    flex均匀布局
    Vue在IDEA的简约安装
    事务及数据表设计
    关于序列化与反序列化
    SQL查询关键字用法
    IO流
    cookie与session
  • 原文地址:https://www.cnblogs.com/luban/p/9008700.html
Copyright © 2011-2022 走看看