zoukankan      html  css  js  c++  java
  • 机器学习总结-线性回归

    线性回归

    当数据为一维时:
    根据训练数据((x_{i},y_{i})),想要学得线性方程:(y=wx+b),对新输入的(x_{j}),能够输出(y_{j})的预测值。
    目标函数(均方误差最小化):$$(w*,b*)=underset{(w,b)}{arg min}l(w,b)=underset{(w,b)}{arg min}sum_{i=1}{m}(y_{i}-wx_{i}-b)2$$。
    解法:由于(l(w,b))是凸函数,因此导数为0时,得到最优解。

    [frac{partial l(w,b))}{partial w}=2(wsum_{i=1}^{m}x_{i}^2-sum_{i=1}^{m}(y_{i}-b)x_{i}),frac{partial l(w,b)}{partial b}=2(mb-sum_{i=1}^{m}(y_{i}-wx_{i})) ]

    为0,得:

    [w=frac{sum_{i=1}^{m}y_{i}(x_{i}-overline{x})}{sum_{i=1}^{m}x_{i}^2-frac{1}{m}(sum_{i=1}^{m}x_{i})},b=frac{1}{m}sum_{i=1}^{m}y_{i}-wx_{i} ]

    当数据为多维时:
    目标方程:(mathbf{y}=w^{T}x+b)
    需要写成矩阵形式:(mathbf{y}=Xwidehat{w}),其中(X=egin{bmatrix} x_{1}^{T} & 1\ x_{2}^{T} & 1\ :& :\ x_{m}^{T} & 1\ end{bmatrix}),(widehat{w}=(w;b))
    目标函数:$$widehat{w}^{*}=underset{widehat{w}}{arg min}(mathbf{y}-Xwidehat{w})^{T}(mathbf{y}-Xwidehat{w})$$
    (X^{T}X)满秩或正定时,解得$$widehat{w}{*}=(X{T}X){-1}X{T}mathbf{y}$$
    学得的线性回归模型为:$$f(widehat{x}{i})=widehat{x}{i}{T}(X{T}X){-1}X{T}mathbf{y},其中widehat{x}{i}=(x{i};1)$$

  • 相关阅读:
    闲记
    网络数据校验随笔(1)
    [转载]各种在线api地址
    WebLogic Server
    接口和抽象类的区别
    PowerBuilder连接数据库
    Entity Framework(实体框架 EF)
    SQL Server附加数据库提示“版本为661,无法打开,支持655版本……”
    实习总结
    此页状态无效,可能已损坏
  • 原文地址:https://www.cnblogs.com/sandy-t/p/6805651.html
Copyright © 2011-2022 走看看