zoukankan      html  css  js  c++  java
  • 机器学习——降维(主成分分析PCA、线性判别分析LDA、奇异值分解SVD、局部线性嵌入LLE)

    机器学习——降维(主成分分析PCA、线性判别分析LDA、奇异值分解SVD、局部线性嵌入LLE)

    以下资料并非本人原创,因为觉得石头写的好,所以才转发备忘

    (主成分分析(PCA)原理总结)[https://mp.weixin.qq.com/s/XuXK4inb9Yi-4ELCe_i0EA]
    来源: 石头 机器学习算法那些事 3月1日
    主成分分析(Principal components analysis,以下简称PCA)是最常用的降维方法之一,在数据压缩和消除冗余方面具有广泛的应用,本文由浅入深的对其降维原理进行了详细总结。

    目录

    1.向量投影和矩阵投影的含义
    2. 向量降维和矩阵降维的含义
    3. 基向量选择算法
    4. 基向量个数的确定
    5. 中心化的作用
    6. PCA算法流程
    7. PCA算法总结

    (线性判别分析(LDA)原理总结)[https://mp.weixin.qq.com/s/7H5-piL6ywHXgoxTXvJnNA]
    来源: 石头 机器学习算法那些事 3月1日
    前言

    线性判别分析(Linear Discriminant Analysis,以下简称LDA)是有监督的降维方法,在模式识别和机器学习领域中常用来降维。PCA是基于最大投影方差或最小投影距离的降维方法,LDA是基于最佳分类方案的降维方法,本文对其原理进行了详细总结。

    目录

    1. PCA与LDA降维原理对比
    2. 二类LDA算法推导
    3. 多类LDA算法推导
    4. LDA算法流程
    5. 正态性假设
    6. LDA分类算法
    7. LDA小结
      (奇异值分解(SVD)原理总结)[https://mp.weixin.qq.com/s/ESl7TxxfuYzjscyfJWLisw]
      来源: 石头 机器学习算法那些事 3月1日
      前言

    奇异值分解(SVD)在降维,数据压缩,推荐系统等有广泛的应用,任何矩阵都可以进行奇异值分解,本文通过正交变换不改变基向量间的夹角循序渐进的推导SVD算法,以及用协方差含义去理解行降维和列降维,最后介绍了SVD的数据压缩原理 。

    目录

    1. 正交变换
    2. 特征值分解含义
    3. 奇异值分解
    4. 奇异值分解例子
    5. 行降维和列降维
    6. 数据压缩
    7. SVD总结

    局部线性嵌入(LLE)原理总结
    来源: 石头 机器学习算法那些事 3月1日
    相关文章推荐:
    主成分分析(PCA)原理总结
    奇异值分解(SVD)原理总结
    scikit-learn中PCA的使用方法
    LLE参考资料下载:
    链接: 
    https://pan.baidu.com/s/1Ht01oCGpUjL7rCX5bAhnYg
    提取码: 62wq 
    LLE是一种非监督式的降维方法,与PCA降维方法相比,LLE降维后保持了初始样本间的局部关系。PCA是基于投影的最大方差的线性投影,在介绍LLE原理之前,我们首先用几张图看看PCA的降维效果:
    目录

    1. LLE算法原理
    2. LLE算法推导
    3. LLE算法流程
      4. K近邻空间大于输入数据的维数D的情况分析
    4. 小结

    视频资料

    (白板推导系列,数学原理了然于胸)[https://www.bilibili.com/video/av32709936/?p=3&t=291]
    (资料推荐系列)[https://www.bilibili.com/video/av31971102]

  • 相关阅读:
    JAVA基础——编程练习(二)
    JAVA基础——面向对象三大特性:封装、继承、多态
    JVM内存
    50. Pow(x, n) (JAVA)
    47. Permutations II (JAVA)
    46. Permutations (JAVA)
    45. Jump Game II (JAVA)
    43. Multiply Strings (JAVA)
    42. Trapping Rain Water (JAVA)
    41. First Missing Positive (JAVA)
  • 原文地址:https://www.cnblogs.com/Erma/p/10699869.html
Copyright © 2011-2022 走看看