zoukankan      html  css  js  c++  java
  • 线性回归算法梳理

    线性回归算法梳理

    1.机器学习的基本概念


     监督学习:训练含有很多特征的数据集,并且数据集中每一个样本都有一个标签。

    无监督学习:训练含有很多特征的数据集,然后学习出这个数据集上有用的结构性质。

    泛化能力:已训练好的模型在新样本上预测正确的能力。

    过拟合:在训练过程中,将个别样本的特点当作所有样本的都具有的一般特点,导致模型的泛化能力下降。

    欠拟合:在训练过程中,未完全学好训练样本的一般性质。

    偏差:度量学习算法的期望预测与真实结果的偏离程度,即刻画了学习算法本身的拟合能力。

    方差:度量同样大小的训练集的变动导致的学习性能的变化,即刻画了数据扰动所造成的影响。

    噪声:表达了在当前任务上任何学习算法所能表达的期望泛化误差的下界,即刻画了学习问题本身的难度。

    交叉验证:在训练前,将数据集分成k个不重合的子集,每次训练取一个子集为验证集,其他为训练集,训练并计算误差,所有误差取平均即为泛化误差。

    2.线性回归原理


    对于给定的数据集D={(x1,y1),(x2,y2)····(xn,yn)},其中xi=(xi1,xi2;xi3;··· xin),yi属于R。线性回归根据数据集D学的一个线性模型以尽可能准确地预测实值输出标记。

    f(xi) = wxi+b,使得f(xi) ≈ yi

    3.线性回归损失函数、代价函数、目标函数


    损失函数:left| y_i-f(x_i) 
ight| ,一般是针对单个样本 i

    代价函数:1/N.sum_{i=1}^{N}{left| y_i-f(x_i) 
ight|} , 一般是针对总体

    目标函数:带有正则项的代价函数

    4.优化方法(梯度下降法、牛顿法、拟牛顿法等)


    梯度下降法:假设目标函数y=f(x),该函数的导数记为f'(x)。导数f'(x)代表f(x)在x处的斜率。在优化过程中,将x往导数的反方向移动一小步来减小f(x),这种技术称为梯度下降法。

    牛顿法:基于一个二阶泰勒展开来近似 x0 附近的f(x),接着计算该函数的临界点。

    拟牛顿法:在k次迭代后,将目标函数f(x)在xk附近做泰勒展开,并取二阶近似,对两边同时对一个梯度算子,得

    5.线性回归的评估标准


     均方误差:每一样本的预测值与真实值偏差的平方和。

    6.sklearn参数详解


    函数 class sklearn.linear_model.LinearRegression(fit_intercept=True, normalize=False, copy_X=True, n_jobs=None)

    输入参数:

    fit_interceptTrue or False 是否计算此模型的截距。如果设置为False,则不会在计算中使用截距(例如,预计数据已经居中)。

    normalize: boolean, optional, default Falsefit_intercept设置为False时,将忽略此参数。如果为True,则回归量X将在回归之前通过减去平均值并除以l2范数来归一化。

    copy_X: boolean, optional, default True如果为True,则将复制X;否则,它可能会被覆盖

    n_jobs: int or None, optional (default=None),多线程计算,-1表示使用所有核心进行计算,默认为1.

  • 相关阅读:
    Cocos Creator 镜头跟随(cc.follow)
    Cocos Creator 虚拟摇杆
    Creator Cocos 获取舞台尺寸 (屏幕大小)
    Cocos Creator中的计时器 (setTimeOut ,setInterval,Schedule )
    Cocos Creator Touch_End的触发条件 (Mouse事件)
    Cocos Creator Spine骨骼动画 (局部换装、全局换装)
    Cocos Creator 粒子效果
    Cocos Creator 的Http和WebSocket
    Android中图表AChartEngine学习使用与例子
    Android应用加入微信分享
  • 原文地址:https://www.cnblogs.com/burton/p/10447759.html
Copyright © 2011-2022 走看看