zoukankan      html  css  js  c++  java
  • 常见机器学习算法原理+实践系列3(PCA)

    PCA主成份分析

    PCA(Principal Component Analysis)主要是为了做数据降维,数据从原来的坐标系转换到登录新的坐标系,新坐标系的选择是由数据本身决定的,第一个新坐标轴选择的是原始数据中方差最大的方向,第二个新坐标轴的选择和第一个坐标轴正交且具有最大方差,该过程一直重复,重复次数为原始数据中特征的数据。通常情况下,大部分方差都包含在前面的几个新坐标轴中,所以一般情况下我们选择前面几个贡献值较大的(90%以上)就是主成份了。

    通过这种降维技术,它能将大量相关变量转化为一组很少的相关变量,这些无关变量称为主成份,比如原始的特征为x1,x2,……xk,通过一些新坐标轴的投影之后,第一主成份可能变成了pc1=a1*x1+a2*x2+……+ak*xk类似的,它是k个特征的加权组合,对初始数据集的方差解析性最大。

    PCA有如下几个步骤:

    1,原始矩阵A去除平均值(求出每个特征原始的平均值,原始矩阵减去这个平均值之后生成一个新矩阵B,也就是特征中心化)

    2,计算协方差矩阵C(两两特征之间的协方差,构成一个矩阵)

    3,计算协方差矩阵C的特征值和特征向量(为了求出最大的方差方向,也就是特征向量)

    4,将特征值按照大到小排序,保留前面topN个特征向量V(如累计方差贡献值超过90%)

    5,将原始数据转换到上述N个特征向量构建的新空间中,B*V

    如果要恢复回原来的矩阵A,利用以下公式(精度有一些损失是正常的):

    下面演示python中利用numpy来实现pac的案例:

    下面是redEigVects输出的样子:

    那么显然TOPN=3的主成份分别为:

    PCA1 = 0.36*x1-0.08*x2+0.85*x3+0.35*x4

    PCA2 = -0.65*x1-0.72*x2+0.17*x3+0.07*x3+0.07*x4

    PCA3=-0.58*x1+0.59*x2+0.07*x3+0.54*x4

  • 相关阅读:
    写MBA毕业论文有感-重口味,不喜莫入
    Android中级第三讲如何复用AlertDialog
    Android初级开发第二讲项目学习
    那些消失的计算机技术(一)
    Android中级第一讲如何学习Android自带的demo项目
    Java基础之continue与break区别
    刨根问底系列之C++ const 挖掘
    Unity3d http 通信
    Windows Phone 7 不温不火学习之《启动器与选择器》
    Windows Phone7 不温不火学习之《应用程序生命周期》
  • 原文地址:https://www.cnblogs.com/crespohust/p/5894105.html
Copyright © 2011-2022 走看看