zoukankan      html  css  js  c++  java
  • 吴恩达《机器学习》课程总结(4)_多变量线性回归

    Q1多维特征

    上图中列数即为特征的个数,行数是样本数。函数假设如下:

    其中x0=1。

    Q2多变量梯度下降

    和单变量的损失函数相同:

    其中,

    求导迭代如下:

    Q3梯度下降法实践1-特征缩放

    特征之间的尺度变化相差很大(如一个是0-1000,一个是0-5),梯度算法需要非常多次的迭代才能收敛,如下图所示:

    方法:将各个特征缩放至大致相同的尺度,最简单的方法就是特征减去均值除以方差。如下所示:

    Q4梯度下降法实践2-学习率

    学习率过小收敛慢,学习率过大可能导致无法收敛。

    通常通过三倍放大来考虑学习率的设置,比如:0.01,0.03,0.1,0.3,1,3,10……。

    Q5特征和多项式回归

    比如一个二次模型:

    或者三次模型:

    可以通过创建新特征(即令):

    从而将模型转换成线性模型。

    Q6正规方程

    前提:对于某些线性回归问题,使用正规方程求解一步到位(导数为零等式求解)。如下所示

    直接令

    参数的解直接为:

    (X包含x0=1)。(其中X是第一列为1剩下的为行为example列为feature的值)

    梯度下降与正规方程的比较:

    Q7正规方程及不可逆性:

    (1)特征之间互相不独立时不可逆;

    (2)样本数少于特征数时不可逆。

        

    词汇

    multivariate linear regression 多元线性回归
    feature scaling   ---特征缩放
    non-linear function   ---非线性函数
    normal equation   ---正规方程
    

      

  • 相关阅读:
    postgresql 在linux下导出数据
    第一次linux下安装nginx记录
    第一次搭建redis集群
    手动mvn install指令向maven本地仓库安装jar包
    windows10下Kafka环境搭建
    在win10环境下搭建 solr 开发环境
    git 常用命令
    生成文件夹的树结构信息
    List集合和JSON互转工具类
    Cmd命令 查看端口被占用
  • 原文地址:https://www.cnblogs.com/henuliulei/p/11247331.html
Copyright © 2011-2022 走看看