zoukankan      html  css  js  c++  java
  • 常见机器学习算法原理+实践系列3(PCA)

    PCA主成份分析

    PCA(Principal Component Analysis)主要是为了做数据降维,数据从原来的坐标系转换到登录新的坐标系,新坐标系的选择是由数据本身决定的,第一个新坐标轴选择的是原始数据中方差最大的方向,第二个新坐标轴的选择和第一个坐标轴正交且具有最大方差,该过程一直重复,重复次数为原始数据中特征的数据。通常情况下,大部分方差都包含在前面的几个新坐标轴中,所以一般情况下我们选择前面几个贡献值较大的(90%以上)就是主成份了。

    通过这种降维技术,它能将大量相关变量转化为一组很少的相关变量,这些无关变量称为主成份,比如原始的特征为x1,x2,……xk,通过一些新坐标轴的投影之后,第一主成份可能变成了pc1=a1*x1+a2*x2+……+ak*xk类似的,它是k个特征的加权组合,对初始数据集的方差解析性最大。

    PCA有如下几个步骤:

    1,原始矩阵A去除平均值(求出每个特征原始的平均值,原始矩阵减去这个平均值之后生成一个新矩阵B,也就是特征中心化)

    2,计算协方差矩阵C(两两特征之间的协方差,构成一个矩阵)

    3,计算协方差矩阵C的特征值和特征向量(为了求出最大的方差方向,也就是特征向量)

    4,将特征值按照大到小排序,保留前面topN个特征向量V(如累计方差贡献值超过90%)

    5,将原始数据转换到上述N个特征向量构建的新空间中,B*V

    如果要恢复回原来的矩阵A,利用以下公式(精度有一些损失是正常的):

    下面演示python中利用numpy来实现pac的案例:

    下面是redEigVects输出的样子:

    那么显然TOPN=3的主成份分别为:

    PCA1 = 0.36*x1-0.08*x2+0.85*x3+0.35*x4

    PCA2 = -0.65*x1-0.72*x2+0.17*x3+0.07*x3+0.07*x4

    PCA3=-0.58*x1+0.59*x2+0.07*x3+0.54*x4

  • 相关阅读:
    Debian / Ubuntu 更新内核并开启 TCP BBR 拥塞控制算法
    axios 常用的几个方法
    doT模板双重循环模板渲染方法
    利用闭包,在不设置全局变量的情况下,完成再次点击退出功能
    技术支持
    隐私政策
    apicloud踩坑集锦
    apicloud运行机制
    apcloud混合式开发app学习笔记
    bootstrap 弹出框 另类运用
  • 原文地址:https://www.cnblogs.com/crespohust/p/5894105.html
Copyright © 2011-2022 走看看