zoukankan      html  css  js  c++  java
  • 线性代数(3)名词概念梳理

    线性代数名词概念梳理

    线性代数常常见的P矩阵(Permutation)(交换矩阵又叫做置换矩阵)。P矩阵是单位矩阵交换行所成,所以P的每列都是正交,所以它是正交矩阵,所以PT=P1P^T=P^{-1}。当高斯消元法主元有0时候就需要交换行。所以正常是A=LU,但是主元有0时候,那就是PA=LU。
    向量空间:一系列向量的集合。在这个集合内任意两个向量通过加减,乘上一个数,线性组合等操作不会出这个空间。比如一条直线它就是一个向量空间。几个向量的线性组合就是一个向量空间。
    子空间:包括原点的向量空间是子空间
    列空间:就是把矩阵的列拿出来,进行线性组合就得到列空间。
    子空间交集一定是子空间,因为要么是相交于原点,要么是在某个子空间内
    线性相关:去掉某列仍然能表示某个空间,那就是线性相关。换句话说就是其他列能组合表示它
    null space零空间:Ax=0的所有x解集
    矩阵空间:就是把矩阵作为单独的一维,就像向量空间一样(向量空间是把向量作为一维)。对矩阵进行线性组合的空间。

    LU分解QR分解
    LU分解是想把矩阵A分解成一个下三角矩阵×上三角矩阵,即A=L×U,其中L是Lower Tiangular Matrix的意思U是Upper Triangular Matrix。而QR分解是想把矩阵A分解成一个正交矩阵×上三角矩阵。其中Q代表正交矩阵,R代表右上角Right非零。
    LU分解在这篇文章已经介绍了。

    从我的理解讲QR分解

    网上的基本是用Gram-Schmidt正交按步骤介绍,并没有讲出为何这么做。本文不会按照先执行A操作再执行B操作这种模式介绍,因为这样根本没有任何理解的成分,很容易会忘。
    接下来介绍下2×2的QR分解
    2维的QR分解就是把矩阵A
    在这里插入图片描述
    分解成下面这种形式:
    在这里插入图片描述

    也就是说:
    在这里插入图片描述
    所以把这个式子
    在这里插入图片描述
    用矩阵乘法乘在一起得到:
    在这里插入图片描述
    然后上面那个式子两边平方再两个式子相加,并且根据
    在这里插入图片描述
    可以得到:
    在这里插入图片描述
    所以现在我们已经求得Q矩阵。并且知道了R矩阵的左上元素。还是根据原先的矩阵乘法有:
    在这里插入图片描述
    注意了:
    在这里插入图片描述
    也就是说
    在这里插入图片描述
    然后我们两边乘个Q1Q^{-1}得到:
    在这里插入图片描述
    于是我们把R矩阵算出来了。好了QR分解讲完了。
    SVD在机器学习,生物,图像处理等领域非常有用。今天就简单介绍后面再详细介绍下SVD分解。

    SVD奇异值分解

    SVD分解它就是想把矩阵A分解成旋转矩阵×对角矩阵×旋转矩阵这种形式,即下面这种:
    在这里插入图片描述


    :n维向量任意n个不线性相关的向量(即两两不平行)就可以组成基。如果这些向量两两正交那就是正交基。为啥叫做基。因为任意n个不线性相关的向量可以表示其他任意向量,所以他们是创始者,基就是创始者的意思。

    线性代数一个很大用处就是存储一个图的信息。下面这个叫做图,它可以描述人际关系,可以描述各个地点的远近,可以描述电路的通达。等等。通过矩阵表示他们,可以我们对物理的一些电流计算就会变得简单。
    在这里插入图片描述

    知乎 https://www.zhihu.com/people/yuanmuou/activities
  • 相关阅读:
    驾照暂时不用年审,放心了
    痛筋
    摘枣
    当了一回山村教师
    补贴山村学校照片
    心中无敌,无敌于天下
    山路
    学会珍惜
    写给部分美女们
    不打羽毛球好多年
  • 原文地址:https://www.cnblogs.com/ailitao/p/11047276.html
Copyright © 2011-2022 走看看