资料:deep learning 花书
学习内容:第二章 线性代数
SVD操作(实际上不是降维,是减少了信息冗余(压缩),因为最后的得到矩阵大小和原矩阵大小相同,称为张成矩阵)
两个矩阵相乘的意义是将右边矩阵中的每一列列向量变换到左边矩阵中每一行行向量为基所表示的空间中去
PCA降维:丨原理讲解丨