zoukankan      html  css  js  c++  java
  • Ng机器学习笔记-1-一元线性回归

    一:回归模型介绍

    从理论上讲,回归模型即用已知的数据变量来预测另外一个数据变量,已知的数据属性称为输入或者已有特征,想要预测的数据称为输出或者目标变量。

    下图是一个例子:

    回归模型1     

         回归模型2

      图中是某地区的面积大小与房价的关系图,输入变量X是面积,输出变量Y是房价,把已有的数据集(x,y)作为一个训练数据,拟合出线性回归模型,利用线性回归模型预测出一给定面积房子的价格。

    下图1-3是典型的学习过程回归模型学习过程                                                              图1-3 学习过程   

    其中,h是估计函数,对应到线性回归中就是一个线性关系式image ,输入变量x,经过估计函数,输出相应的估计值y。

    二:代价函数

    1

    2-costfunction

          在一元线性回归中有两个参数:theta0,theta1的值是未知的,这两个参数的值决定了估计函数的好坏。估计值image 与真实值y之间的差越小,说明估计函数越好,因此,选择参数theta0,theta1的标准就设为image ,选择能够使得函数J(theta0,theta1)得到最小值的一对参数(theta0,theta1)作为最终的参数值。我们称函数

    J(theta0,theta1)为代价函数。

         下面进行举例分析,为方便理解代价函数和线性回归估计函数,先假设theta0=0,即image ,给定三组训练数据(1,1)、(2,2)、(3,3),现在训练一线性回归估计函数,使得它能够最大限度的磨合训练数据,即目标是求得参数theta1的值,使得代价函数值最小,如下图所示:  3-Cost Function_4

        左图是不同theta1值对应的估计函数线性图,右图是不同theta1对应的代价函数值,可以看出当theta1=1的时候,代价函数值达到了最小值0,因此最终选择theta1=1。

        下面是简单的练习题:

        q1

       上面设theta0=0,简单的对代价函数进行了分析,下面看下有两个参数theta0、theta1的情况:

       2-Cost Function_5

        图中红色的叉叉代表训练数据,当只有参数theta1的时候,代价函数图是二维的平面图,但是当有两个参数时,代价函数就是一个三维图,如下所示:

       2-Cost Function_6

       从代价函数三维图中可以看出,位于曲平面最中间的点所在的坐标(theta0,theta1)可以使得代价函数值取得最小值,为方便起见,把代价函数的三维图换成等高线图,即把曲平面映射到地面。如下所示:

       2-Cost Function_7

      

       2-Cost Function_8

       2-Cost Function_9

       代价函数等高线图中,在相同颜色曲线上的点有相同大小的代价函数值,随着参数theta0,theta1的调整,估计函数线逐渐与训练数据重合,代价函数值逐渐变小,最终到达曲线平面的最中点。

    三:梯度下降法

      第二节中,我们画出代价函数关于参数theta0,theta1的图形,从图中可以大概得知取得最小代价函数值时所对应的参数值,但是当参数个数多于2个的时候,这种方法就不适用了,因此本节研究自动获取最佳参数的方法:梯度下降法。

      梯度下降法是机器学习中常用的一种方法:

       G2 

    G3      G1   

    这里梯度下降法的应用可以想象成是:把代价函数图看成是一座山,从山上任意一点出发下山,在给定步伐大小情况下,需要在最快时间内走到山脚,也许不同的出发点可能到达不同的山脚,但是它们的海拔高度可能差不多。

    具体的算法流程如下:

     G4

      1:先给theta0,theta1设定初始值,即对应着下山的出发点。

      2:设定下山步伐大小,即对应image ,代表学习率。

      3:为了能够快速的到达山脚,在相同步伐大小情况下,往梯度最大方向走肯定最快,梯度大小也就是对应着上图中的斜率image

      4:每次都同时更新参数theta0,theta1,图中左下侧的更新公式是正确的,右下侧是错误的。

      参数image的大小决定了代价函数是否能够逐渐收敛到一比较小的值,下图所示:

      G5

      以参数theta1的更新举例,斜率大小可能是正值也可能是负值,如果是正值则参数theta1逐渐变小,如果是负值,则参数theta1逐渐变大。

      G6

      因此,如果参数image太小,梯度下降的速度虽然会比较慢,但是肯定会逐渐收敛到一极小值,但是如果image太大,则可能导致代价函数不能收敛到极小值,并且是两边交叉变化的,如上图所示。

      四:线性回归对应的梯度下降法

    下图是线性回归对应的梯度下降法,是一个不断迭代的过程。

    G9

     G10

      最终的的算法流程如下:

      G11

      

    简单测试题:

      G13

    五:总结

    本节主要介绍了一元线性回归、代价函数、梯度下降法,在求一元线性回归中的参数估计时,用到了梯度下降法,在下面的一章节中将进行习题练习和实验实现本节介绍的方法。

    除了梯度下降法求参数估计值外,还有常用的利用最小二乘法的正规方程方法,也将在下面的章节中进行介绍和对比。

  • 相关阅读:
    HashMap实现原理
    框架-Spring
    团队开发介绍
    返回一个环状整数数组中最大子数组之和
    软件工程学习体会
    书店促销
    寻找小水王
    梦断代码阅读笔记3
    找水王
    梦断代码阅读笔记2
  • 原文地址:https://www.cnblogs.com/justcxtoworld/p/3946323.html
Copyright © 2011-2022 走看看