zoukankan      html  css  js  c++  java
  • Kernel Ridge Regression

    回顾一下岭回归,岭回归的目的是学习得到特征和因变量之间的映射关系,由于特征可能很高维,所以需要正则化

    岭回归的目标函数是

    $$ sum_{i=1}^n left|y-Xeta ight|^2+lambdaeta^Teta $$

    由于数据可能是非线性的,单纯的线性回归效果可能不是很好,因此可以把数据映射到一个核空间,使得数据在这个核空间里面线性可分。

    设核函数为$Phi_i=Phi(x_i)$,$Phi_i$是一个$d$维空间中的向量,通常$d$比原来的维数高,甚至可以到无穷维。可以认为$Phi_i$是核空间中$x_i$的一组特征,我们在核空间里对这组特征进行线性回归,原理和岭回归是一样的,因此可以直接套用岭回归的目标函数

    $$ sum_{i=1}^n left|y-Phieta ight|^2+lambdaeta^Teta $$

    由正规方程解得$eta=(Phi^TPhi+lambda I_d)^{-1}Phi^Ty$

    由于$Phi_i$可能达到无穷维,直接求逆比较困难,且效率较低。因此需要用到下面的小技巧

    $$ (P^{-1}+B^TR^{-1}B)^{-1}B^TR^{-1}=PB^T(BPB^T+R)^{-1}$$

    上式中,令$B=Phi,P=frac{1}{lambda}I_d,R=I_n$,则有

    $$egin{align*} eta &= frac{1}{lambda}Phi^T(frac{1}{lambda}PhiPhi^T+I_n)^{-1}y\&=frac{1}{lambda}Phi(frac{1}{lambda}[PhiPhi^T+lambda I_n])^{-1}y\&=frac{1}{lambda}Phi^T(frac{1}{lambda})^{-1}(PhiPhi^T+lambda I_n)^{-1}y\&=Phi^T(PhiPhi^T+lambda I_n)^{-1}y end{align*}$$

    令$alpha=(PhiPhi^T+lambda I_n)^{-1}yquadinmathbb{R}^{n imes 1}$,则$eta=Phi^Talpha=[Phi_1,Phi_2,...,Phi_n]alpha=sum_{i=1}^n alpha_iPhi_i$

    $K=PhiPhi^Tinmathbb{R}^{n imes n}$称为gram矩阵,且$K_{ij}=Phi_i^TPhi_j$。

    $$ y_i=eta^TPhi_i=y^T(K+lambda I_n)^{-1}PhiPhi_i = y^T(K+lambda I_n)^{-1}K_i $$

    其中$K_i$是$K$的第$i$列

  • 相关阅读:
    查询,创建,扩充表空间&&impdp--------表空间大全
    TOJ3660家庭关系(并查集+hash+图的连通性)
    [置顶] iptables 性能 测试
    CSU1312:榜单(模拟)
    uvalive 2326
    TOJ 2732存钱计划(三)(单源最短路)
    CSU1315:全场最水题之陈兴老师与比赛
    【图像处理】最临近插值和双线性内插值算法实现比较
    poj 3090 Visible Lattice Points 法利系列||通过计
    美丽的谎言(王愿共勉)
  • 原文地址:https://www.cnblogs.com/wacc/p/3751632.html
Copyright © 2011-2022 走看看