zoukankan      html  css  js  c++  java
  • 回归算法之线性回归

    线性回归的定义是:目标值预期是输入变量的线性组合。线性模型形式简单、易于建模,但却蕴含着机器学习中一些重要的基本思想。线性回归,是利用数理统计中回归分析,来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法,运用十分广泛。

    优点:结果易于理解,计算不复杂

    缺点:对非线性的数据拟合不好

    适用数据类型:数值型和标称型

    对于单变量线性回归,例如:前面房价例子中房子的大小预测房子的价格。f(x) = w1*x+w0,这样通过主要参数w1就可以得出预测的值。

    通用公式为:

    那么对于多变量回归,例如:瓜的好坏程度 f(x) = w0+0.2色泽+0.5根蒂+0.3*敲声,得出的值来判断一个瓜的好与不好的程度。

    通用公式为:

    线性模型中的向量W值,客观的表达了各属性在预测中的重要性,因此线性模型有很好的解释性。对于这种“多特征预测”也就是(多元线性回归),那么线性回归就是在这个基础上得到这些W的值,然后以这些值来建立模型,预测测试数据。简单的来说就是学得一个线性模型以尽可能准确的预测实值输出标记。

    那么如果对于多变量线性回归来说我们可以通过向量的方式来表示W值与特征X值之间的关系:

    两向量相乘,结果为一个整数是估计值,其中所有特征集合的第一个特征值x_0x0​​=1,那么我们可以通过通用的向量公式来表示线性模型:

    一个列向量的转置与特征的乘积,得出我们预测的结果,但是显然我们这个模型得到的结果可定会有误差,如下图所示:

    单变量

       

    多变量

    损失函数

    损失函数是一个贯穿整个机器学习重要的一个概念,大部分机器学习算法都会有误差,我们得通过显性的公式来描述这个误差,并且将这个误差优化到最小值。

    对于线性回归模型,将模型与数据点之间的距离差之和做为衡量匹配好坏的标准,误差越小,匹配程度越大。我们要找的模型就是需要将f(x)和我们的真实值之间最相似的状态。于是我们就有了误差公式,模型与数据差的平方和最小:

    上面公式定义了所有的误差和,那么现在需要使这个值最小?那么有两种方法,一种使用梯度下降算法,另一种使正规方程解法(只适用于简单的线性回归)。

    梯度下降算法

    class LinearRegression(fit_intercept = True,normalize = False,copy_X = True,n_jobs = 1)
      """
      :param normalize:如果设置为True时,数据进行标准化。请在使用normalize = False的估计器调时用fit之前使用preprocessing.StandardScaler
    
      :param copy_X:boolean,可选,默认为True,如果为True,则X将被复制
    
      :param n_jobs:int,可选,默认1。用于计算的CPU核数
      """

    实例代码:

    from sklearn.linear_model import LinearRegression
    reg = LinearRegression()
    

    方法

    fit(X,y,sample_weight = None)

    使用X作为训练数据拟合模型,y作为X的类别值。X,y为数组或者矩阵

    reg.fit ([[0, 0], [1, 1], [2, 2]], [0, 1, 2])
    

    predict(X)

    预测提供的数据对应的结果

    reg.predict([[3,3]])
    
    array([ 3.])
    

    属性

    coef_

    表示回归系数w=(w1,w2....)

    reg.coef_
    
    array([ 0.5,  0.5])
    

    intercept_ 表示w0

    加入交叉验证

    前面我们已经提到了模型的交叉验证,那么我们这个自己去建立数据集,然后通过线性回归的交叉验证得到模型。由于sklearn中另外两种回归岭回归、lasso回归都本省提供了回归CV方法,比如linear_model.Lasso,交叉验证linear_model.LassoCV;linear_model.Ridge,交叉验证linear_model.RidgeCV。所以我们需要通过前面的cross_validation提供的方法进行k-折交叉验证。

    from sklearn.datasets.samples_generator import make_regression
    from sklearn.model_selection import cross_val_score
    from sklearn import linear_model
    import matplotlib.pyplot as plt
    
    lr = linear_model.LinearRegression()
    X, y = make_regression(n_samples=200, n_features=5000, random_state=0)
    result = cross_val_score(lr, X, y)
    print result
  • 相关阅读:
    Mono 开发者会议
    PHP正在死亡?
    区域设置 ID (LCID) 表
    OpenSource 的 Free是自由 非免费
    搭建.net framwork 3.0开发环境的一篇文章
    Rainbow的相关资料
    利用VS2005中的Code Snippets提高开发效率
    判定是否为IPv4
    我的MVVM框架 v3教程——流程相关
    查询json数据结构的8种方式
  • 原文地址:https://www.cnblogs.com/lax-17xu/p/11799989.html
Copyright © 2011-2022 走看看