zoukankan      html  css  js  c++  java
  • np.linalg.norm(求范数)

    np.linalg.norm(求范数)

    一、总结

    一句话总结:

    np.linalg.norm就是元素平方求和之后开根号

    二、np.linalg.norm(求范数)

    转自或参考:np.linalg.norm(求范数)
    https://blog.csdn.net/hqh131360239/article/details/79061535

    1、linalg=linear(线性)+algebra(代数),norm则表示范数。

    2、函数参数

    x_norm=np.linalg.norm(x, ord=None, axis=None, keepdims=False)

    ①x: 表示矩阵(也可以是一维)

    ②ord:范数类型

    向量的范数:

    矩阵的范数:

    ord=1:列和的最大值

    ord=2:|λE-ATA|=0,求特征值,然后求最大特征值得算术平方根(matlab在线版,计算ans=ATA,[x,y]=eig(ans),sqrt(y),x是特征向量,y是特征值)

    ord=∞:行和的最大值

    ord=None:默认情况下,是求整体的矩阵元素平方和,再开根号。(没仔细看,以为默认情况下就是矩阵的二范数,修正一下,默认情况下是求整个矩阵元素平方和再开根号)

    ③axis:处理类型

    axis=1表示按行向量处理,求多个行向量的范数

    axis=0表示按列向量处理,求多个列向量的范数

    axis=None表示矩阵范数。

    ④keepding:是否保持矩阵的二维特性

    True表示保持矩阵的二维特性,False相反

    3、代码实现

    import numpy as np
    x = np.array([
        [0, 3, 4],
        [1, 6, 4]])
    #默认参数ord=None,axis=None,keepdims=False
    print "默认参数(矩阵整体元素平方和开根号,不保留矩阵二维特性):",np.linalg.norm(x)
    print "矩阵整体元素平方和开根号,保留矩阵二维特性:",np.linalg.norm(x,keepdims=True)
    
    print "矩阵每个行向量求向量的2范数:",np.linalg.norm(x,axis=1,keepdims=True)
    print "矩阵每个列向量求向量的2范数:",np.linalg.norm(x,axis=0,keepdims=True)
    
    print "矩阵1范数:",np.linalg.norm(x,ord=1,keepdims=True)
    print "矩阵2范数:",np.linalg.norm(x,ord=2,keepdims=True)
    print "矩阵∞范数:",np.linalg.norm(x,ord=np.inf,keepdims=True)
    
    print "矩阵每个行向量求向量的1范数:",np.linalg.norm(x,ord=1,axis=1,keepdims=True)

    结果显示:

    4、总结

    ①矩阵的三种范数求法(应该是4种了在默认情况下,又多出了一种情况

    ②向量的三种范数求法

     
     
     
    我的旨在学过的东西不再忘记(主要使用艾宾浩斯遗忘曲线算法及其它智能学习复习算法)的偏公益性质的完全免费的编程视频学习网站: fanrenyi.com;有各种前端、后端、算法、大数据、人工智能等课程。
    博主25岁,前端后端算法大数据人工智能都有兴趣。
    大家有啥都可以加博主联系方式(qq404006308,微信fan404006308)互相交流。工作、生活、心境,可以互相启迪。
    聊技术,交朋友,修心境,qq404006308,微信fan404006308
    26岁,真心找女朋友,非诚勿扰,微信fan404006308,qq404006308
    人工智能群:939687837

    作者相关推荐

  • 相关阅读:
    .net中Timer的使用
    计算日期的神器
    求全排列函数next_permutation
    各种排序
    求最大字段和
    炸弹时间复位
    最少步数,广搜
    数据
    水池数目
    最大岛屿
  • 原文地址:https://www.cnblogs.com/Renyi-Fan/p/13363545.html
Copyright © 2011-2022 走看看