zoukankan      html  css  js  c++  java
  • 单变量线性回归

    回归由来
    回归是由英国著名生物学家兼统计学家高尔顿(Francis Galton,1822~1911.生物学家达尔文的表弟)在研究人类遗传问题时提出来的。为了研究父代与子代身高的关系,高尔顿搜集了1078对父亲及其儿子的身高数据。他发现这些数据的散点图大致呈直线状态,也就是说,总的趋势是父亲的身高增加时,儿子的身高也倾向于增加。但是,高尔顿对试验数据进行了深入的分析,发现了一个很有趣的现象—回归效应。因为当父亲高于平均身高时,他们的儿子身高比他更高的概率要小于比他更矮的概率;父亲矮于平均身高时,他们的儿子身高比他更矮的概率要小于比他更高的概率。它反映了一个规律,即这两种身高父亲的儿子的身高,有向他们父辈的平均身高回归的趋势。对于这个一般结论的解释是:大自然具有一种约束力,使人类身高的分布相对稳定而不产生两极分化,这就是所谓的回归效应。

    单变量线性回归

    单变量线性回归指的是只有一个自变量;

    线性回归是一种有监督学习,解决的是自变量和因变量之间的关系;

    回归指的是因变量是连续性的,而如果因变量是离散型的,则是分类问题。

    监督学习算法的工作方式可以用如下这张图表示:

     

           将训练集喂给机器学习算法,输出一个假设函数 h,然后新输入一个自变 x 到假设函数内,然后输出一个因变量 y 值。

        以房价预测为列,特征为房子的大小,因变量是房价。那么对于一个新的房子的大小,我们如何根据历史的数据来预测出来该房子的价格呢?

    ℎθx)= θ0+θ 1,因为只含有一个特征/输入变量,因此这样的问题叫作单变量线性回归问题。

    梯度下降

    描述:对赋值,使得按梯度下降最快方向进行,一直迭代下去,最终得到局部最小值。其中是a学习率(learning rate),它决定了我们沿着能让代价函数下降程度最大的方 向向下迈出的步子有多大。

            a 是学习率,控制着梯度下降算法移动的大小,如果 a过小,那么梯度下降算法就一点点地移动,那么可能需要很长的时间才能够找到全局最小值;如果 a 过大,那么又有可能会导致梯度下降算法找不到最小值,甚至导致代价函数无法收敛。

    梯度下降算法的步骤:

    1.先预设一个初始的参数值;

    2.然后一直不断地改变这个参数值,来减小代价函数;

    3.直到最后代价函数达到一个最小值或者局部最优解。

     

  • 相关阅读:
    探究操作系统的内存分配(malloc)对齐策略
    三十一个实用的小常识
    防止网页后退
    郁闷的一天
    脑袋不行
    家的开张
    猴子定律
    赴微软onsite!谁有C++/HTML/JavaScript开发工程师推荐?
    卡马克的求平方根函数代码的陷阱
    动作游戏自定义技能探讨
  • 原文地址:https://www.cnblogs.com/xfbestgood/p/12367529.html
Copyright © 2011-2022 走看看