zoukankan      html  css  js  c++  java
  • UFLDL 教程三总结与答案

          主成分分析(PCA)是一种能够极大提升无监督特征学习速度的数据降维算法。更重要的是,理解PCA算法,对实现白化算法有很大的帮助,很多算法都先用白化算法作预处理步骤。这里以处理自然图像为例作解释。

         1.计算协方差矩阵:

            egin{align}Sigma = frac{1}{m} sum_{i=1}^m (x^{(i)})(x^{(i)})^T. end{align}  按照通常约束,x为特征变量,上边表示样本数目,下标表示特征数目。这里样本数为m。     

    xRot = zeros(size(x));  
    sigma=x*x'/size(x,2);      %sigma为协方差矩阵
    [U,S,V]=svd(sigma);        %U为特征向量,X为特征值,V为U的转置,S只有对角线元素非零,为λ1...λn,且它们按照由大到小排序。
    xRot = U'*x;               %xRot为将原x
    egin{align}U = egin{bmatrix} | & | & & |  \u_1 & u_2 & cdots & u_n  \| & | & & | end{bmatrix} 		end{align}.    	extstyle u_1 是主特征向量(对应最大的特征值), 	extstyle u_2 是次特征向量。以此类推,另记 	extstyle lambda_1, lambda_2, ldots, lambda_n 为相应的特征值。 
    u1...u2为一组基,U*x即将x映射到以U为基的新空间下。

    covar = zeros(size(x, 1)); % You need to compute this
    sigma1=xRot*xRot'/size(x,2);
    [U1,S1,V1]=svd(sigma1);
    covar = S1; %S为特征值,只有对角线非零
    % Visualise the covariance matrix. You should see a line across the
    % diagonal against a blue background.
    figure('name','Visualisation of covariance matrix');
    imagesc(covar); %验证投影后协方差矩阵计算是否正确

    本来可以看到有颜色的对角线,因为这个数据集对角线取值范围原因,无法看到,只能得出左图效果。(The image should show a coloured diagonal line against a blue background. For this dataset, because of the range of the diagonal entries, the diagonal line may not be apparent, so you might get a figure like the one show below)

    2.找出主成分个数k

          既然是降维,如果全部选取主成分则不起到降维作用,例如步骤一中只是将x映射到另一组基所在的空间,并没有减少维数。如何选择 	extstyle k ,即保留多少个PCA主成分?对于高维数据来说,做这个决定就没那么简单:如果 	extstyle k 过大,数据压缩率不高,在极限情况 	extstyle k=n 时,等于是在使用原始数据(只是旋转投射到了不同的基);相反地,如果 	extstyle k 过小,那数据的近似误差太太。决定 	extstyle k 值时,我们通常会考虑不同 	extstyle k 值可保留的方差百分比。具体来说,如果 	extstyle k=n ,那么我们得到的是对数据的完美近似,也就是保留了100%的方差,即原始数据的所有变化都被保留下来;相反,如果 	extstyle k=0 ,那等于是使用零向量来逼近输入数据,也就是只有0%的方差被保留下来。

         一般而言,设 	extstyle lambda_1, lambda_2, ldots, lambda_n 表示 	extstyle Sigma 的特征值(按由大到小顺序排列),使得 	extstyle lambda_j 为对应于特征向量 	extstyle u_j 的特征值。那么如果我们保留前 	extstyle k 个成分,则保留的方差百分比可计算为: egin{align}frac{sum_{j=1}^k lambda_j}{sum_{j=1}^n lambda_j}.end{align}即n为所有特征值,取前k项特征值后与全部特征值的比值即为对主成分的保留程度,比值越大保留越多,降维程度越低。

         下面设定保留程度为99%,计算k值。      

    k = 0; % Set k accordingly
    s=diag(S);
    sum_s=sum(s);
    lambda=0;
    for i=1:size(s,1)
        lambda = lambda+s(i);
        if lambda/sum_s>=0.99         %当所选取特征值之和大于99%则break
            break;
        end
    k=i;    %经计算k=88
    end

    3.降维并对比

         通过选取前k项特征值,决定将原图像的维数降至k维。而后将降维后的图像”复原“,与原图对比。

    xHat = zeros(size(x));  % You need to compute this
    xRot1= U(:,1:k)'*x;     %取前k项特征向量与x相乘
    xHat = U(:,1:k)*xRot1;  %复原

         复原的方法:矩阵 	extstyle U 有正交性,即满足 	extstyle U^TU = UU^T = I ,所以若想将旋转后的向量 	extstyle x_{
m rot} 还原为原始数据 	extstyle x ,将其左乘矩阵	extstyle U即可: 	extstyle x=U x_{
m rot} , 验算一下: 	extstyle U x_{
m rot} =  UU^T x = x

                       

                                     原始图像                                                                                                降至k(=88)维后复原


     4.白化、正则化

          我们已经了解了如何使用PCA降低数据维度。在一些算法中还需要一个与之相关的预处理步骤,这个预处理过程称为白化(一些文献中也叫sphering)。举例来说,假设训练数据是图像,由于图像中相邻像素之间具有很强的相关性,所以用于训练时输入是冗余的。白化的目的就是降低输入的冗余性;更正式的说,我们希望通过白化过程使得学习算法的输入具有如下性质:(i)特征之间相关性较低;(ii)所有特征具有相同的方差。 

         	extstyle x_{
m rot} 协方差矩阵对角元素的值为 	extstyle lambda_1	extstyle lambda_2 绝非偶然。并且非对角元素值为0; 因此, 	extstyle x_{{
m rot},1}	extstyle x_{{
m rot},2} 是不相关的, 满足我们对白化结果的第一个要求 (特征间相关性降低)。为了使每个输入特征具有单位方差,我们可以直接使用 	extstyle 1/sqrt{lambda_i} 作为缩放因子来缩放每个特征 	extstyle x_{{
m rot},i} 。具体地,我们定义白化后的数据 	extstyle x_{{
m PCAwhite}} in Re^n 如下:egin{align}
x_{{
m PCAwhite},i} = frac{x_{{
m rot},i} }{sqrt{lambda_i}}.   
end{align}   

    % 这里仅仅是对映射后的特征Xrot进行白化,没有降维!!!
    epsilon = 0.1; xPCAWhite = zeros(size(x)); xPCAWhite = diag(1./sqrt(diag(S)+epsilon))*xRot; %注意这里epsilon不为零,即施加正则化
    sigma2=xPCAWhite1*xPCAWhite1'/size(xPCAWhite1,2);
    [U2,S2,V2]=svd(sigma2);
    covar = S2;
    imagesc(covar);     %画图,颜色对角线由红变蓝

           对于epsilon的解释:正则化。实践中需要实现PCA白化或ZCA白化时,有时一些特征值 	extstyle lambda_i 在数值上接近于0,这样在缩放步骤时我们除以 sqrt{lambda_i} 将导致除以一个接近0的值;这可能使数据上溢 (赋为大数值)或造成数值不稳定。因而在实践中,我们使用少量的正则化实现这个缩放过程,即在取平方根和倒数之前给特征值加上一个很小的常数 	extstyle epsilon

    egin{align}
x_{{
m PCAwhite},i} = frac{x_{{
m rot},i} }{sqrt{lambda_i + epsilon}}.
end{align}

    	extstyle x 在区间 	extstyle [-1,1] 上时, 一般取值为 	extstyle epsilon approx 10^{-5}。对图像来说, 这里加上 	extstyle epsilon ,对输入图像也有一些平滑(或低通滤波)的作用。这样处理还能消除在图像的像素信息获取过程中产生的噪声,改善学习到的特征。

    %这里仅仅是对映射后的特征xRot进行白化,没有降维!!!
    epsilon=0;
    xPCAWhite1 = diag(1./sqrt(diag(S)+epsilon))*xRot; %注意这里额epsilon为零,即没有施加正则化 sigma2=xPCAWhite1*xPCAWhite1'/size(xPCAWhite1,2); [U2,S2,V2]=svd(sigma2); covar = S2; imagesc(covar); %画图:颜色对角线全红

         那么问题来了,正则化与否有什么区别呢???原文这样写:PCA whitening without regularisation results a covariance matrix that is equal to the identity matrix. PCA whitening with regularisation results in a covariance matrix with diagonal entries starting close to 1 and gradually becoming smaller.意思是:不经正则化的PCA白化得到的特征矩阵S等价于单位阵,即代码[U,S,V]中的S。(文中是说特征矩阵,但是只有对角线非零的矩阵只有特征矩阵);而经过正则化的PCA白化得到的特征矩阵对角线元素的值由近似1逐渐下降。文中给出区别:前者的S在图中为蓝色背景下一条红色的对角线(you should see a red line across the diagonal (one entries against a blue background),后者的S在图像中表现为红色由对角线渐变为蓝色(you should see a red line that slowly turns blue across the diagonal)。上图:

            

                              不经过正则化的PCA白化                                                                               经过正则化的PCA白化

         白化与降维相结合。 如果你想要得到经过白化后的数据,并且比初始输入维数更低,可以仅保留 	extstyle x_{{
m PCAwhite}} 中前 	extstyle k 个成分。当我们把PCA白化和正则化结合起来时,	extstyle x_{{
m PCAwhite}} 中最后的少量成分将总是接近于0,因而舍弃这些成分不会带来很大的问题。 上文已经提到过了,上文只是白化,没有降维,而当我们向将白化与降维结合时,要正则化,因为此时特征值S中最后的少量成分将减小至零。

    5.ZCA白化

          经过PCA白化(不经过正则化)后,数据现在的协方差矩阵为单位矩阵 	extstyle I 。我们说,	extstyle x_{{
m PCAwhite}} 是数据经过PCA白化后的版本: 	extstyle x_{{
m PCAwhite}} 中不同的特征之间不相关并且具有单位方差。要说明的是,使数据的协方差矩阵变为单位矩阵 	extstyle I 的方式并不唯一。具体地,如果 	extstyle R 是任意正交矩阵,即满足 	extstyle RR^T = R^TR = I (说它正交不太严格,	extstyle R 可以是旋转或反射矩阵), 那么 	extstyle R \,x_{
m PCAwhite} 仍然具有单位协方差。在ZCA白化中,令 	extstyle R = U 。我们定义ZCA白化的结果为:egin{align}
x_{
m ZCAwhite} = U x_{
m PCAwhite}
end{align}

    当使用 ZCA白化时(不同于 PCA白化),我们通常保留数据的全部 	extstyle n 个维度,不尝试去降低它的维数。 

    xZCAWhite = zeros(size(x));
    epsilon = 0.1;
    xZCAWhite = U*diag(1./sqrt(diag(S)+epsilon))*U'*x;
    %经过ZCA白化与原图对比 figure('name','ZCA whitened images'); display_network(xZCAWhite(:,randsel)); figure('name','Raw images'); display_network(x(:,randsel));

           

                                          原图                                                                                     经过ZCA白化

       You should observe that whitening results in, among other things, enhanced edges.  边缘增强。

  • 相关阅读:
    从缓冲上看阻塞与非阻塞socket在发送接收上的区别
    关于TCP封包、粘包、半包
    CURL 和LIBCURL C++代码 上传本地文件,好不容易碰到了这种折腾我几天的代码
    Spring boot 搭配 JPA 生成表注释 和 字段注释
    Spring Data JPA 中常用注解
    SpringBoot Data JPA 关联表查询的方法
    Spring boot data JPA数据库映射关系 : @OneToOne,@OneToMany,@ManyToMany
    Spring Boot Jpa 表名小写转大写
    SpringBoot入门系列~Spring-Data-JPA自动建表
    使用Spring-Session共享使用Session
  • 原文地址:https://www.cnblogs.com/king-lps/p/6098501.html
Copyright © 2011-2022 走看看