zoukankan      html  css  js  c++  java
  • 机器学习十讲——第二讲

    一、前言

        今天主要是讲解了有监督学习中回归的一系列问题,从简单的线性回归到岭回归、LASSO回归等。
    回归问题简单来说就是根据所选定的特征值,通过选定的参数也就是权重,计算出预测的目标值,而学习的过程就是得出最符合的权重,使得预测值能够接近真实的目标值。

    二、笔记

    NumPy 矩阵求逆函数
    
    numpy.linalg 模块包含线性代数的函数,可计算逆矩阵、求特征值、解线性方程组以及求解行列式等。
    
    行列式:np.linalg.det(A)    (判断是否存在逆矩阵)
    计算逆矩阵:np.linalg.inv(A)
    
    回归如今指的用一个或多个自变量来预测因变量的数学方法。
    在机器学习中,回归指的是一类预测变量为连续值的有监督学习学习方法
    
    在回归模型中,需要预测的变量叫做因变量,用来解释因变量变化的变量叫做自变量。
    
    一元线性回归
    
    多元线性回归(寻找一个超平面,使得训练集中样本到超平面的误差平方和最小)
        多元线性回归的矩阵表示
            假设训练集的特征部分即为n*(d+1)矩阵X,其中最后一列取值权威1
            标签部分即为y=y(y1,y2,...yn)T,参数即为w=(w1,w2,...wd,w0)T
    
    多项式回归:使用原始特征的二次项、三次项
        线性回归解决非线性问题
        问题:维度灾难、过度拟合
    
    岭回归
        思路:线性回归目标函数加上对w的惩罚函数
    
  • 相关阅读:
    (第十二周)Bug修正报告
    (第十二周)团队项目19
    (第十二周)新功能WBS
    (第十二周)团队项目18
    (第十二周)团队项目17
    (第十二周)Debug阶段成员贡献分
    (第十一周)工作总结
    学习进度
    第九周
    第八周
  • 原文地址:https://www.cnblogs.com/best-hym/p/14337124.html
Copyright © 2011-2022 走看看