zoukankan      html  css  js  c++  java
  • 基于numpy模块实现常规线性代数的求解问题

    前言

    数据挖掘的理论背后,几乎离不开线性代数的计算,如矩阵乘法、矩阵分解、行列式求解等。本文将基于numpy模块实现常规线性代数的求解问题, 需要注意的是 ,有一些线性代数的运算并不是直接调用numpy模块,而是调用numpy的子模块linalg(线性代数的缩写)。该子模块涵盖了线性代数所需的很多功能,本文将挑几个重要的例子加以说明。

    函数清单

    为使读者有一个全局的概念,下面罗列一些linalg子模块中有关线性代数的重要函数,以便读者快速查阅和灵活使用:

    新知图谱, 五分钟了解这几个numpy的重要函数

    案例讲解

    接下来,我们基于上表中的函数,分享几个重要的例子,相信在不久的将来,当你研究数据挖掘的算法理论时,可能会用到。

    矩阵乘法

    # 一维数组的点积

    vector_dot = np.dot(np.array([1,2,3]), np.array([4,5,6]))print('一维数组的点积:n',vector_dot)# 二维数组的乘法print('两个二维数组:')print(arr10)print(arr11)arr2d = np.dot(arr10,arr11)print('二维数组的乘法:n',arr2d)

    一维数组的点积:

    32

    两个二维数组:

    [[ 0  1  2] [ 3  4  5] [ 6  7  8] [ 9 10 11]] [[101 102 103 104] [105 106 107 108] [109 110 111 112]]

    二维数组的乘法:

    [[ 323  326  329  332] [1268 1280 1292 1304] [2213 2234 2255 2276] [3158 3188 3218 3248]]

    点积函数dot ,使用在两个一维数组中,实际上是计算两个向量的乘积,返回一个标量;使用在两个二维数组中,即矩阵的乘法,矩阵乘法要求第一个矩阵的列数等于第二个矩阵的行数,否则会报错。

    diag函数的使用

    arr15 = np.arange(16).reshape(4,-1)

    print('4×4的矩阵:n',arr15)print('取出矩阵的主对角线元素:n',np.diag(arr15))print('由一维数组构造的方阵:n',np.diag(np.array([5,15,25])))

    4×4的矩阵:

    [[ 0  1  2  3] [ 4  5  6  7] [ 8  9 10 11] [12 13 14 15]]

    取出矩阵的主对角线元素:

    [ 0  5 10 15]

    由一维数组构造的方阵:

    [[ 5  0  0] [ 0 15  0] [ 0  0 25]]

    如上结果所示,如果给 diag函数 传入的是二维数组,则返回由主对角元素构成的一维数组;如果向diag函数传入一个一维数组,则返回方阵,且方阵的主对角线就是一维数组的值,方阵的非主对角元素均为0。

    特征根与特征向量

    我们知道,假设A为n阶方阵,如果存在数λ和非零向量x,使得Ax=λx(x≠0),则称λ为A的特征根,x为特征根λ对应的特征向量。如果需要计算方阵的特征根和特征向量,可以使用子模块linalg中的 eig函数 :

    # 计算方阵的特征向量和特征根

    arr16 = np.array([[1,2,5],[3,6,8],[4,7,9]])print('计算3×3方阵的特征根和特征向量:n',arr16)print('求解结果为:n',np.linalg.eig(arr16))

    计算3×3方阵的特征根和特征向量:

    [[1 2 5] [3 6 8] [4 7 9]]

    求解结果为:

    (array([ 16.75112093,  -1.12317544,   0.37205451]), array([[-0.30758888, -0.90292521,  0.76324346], [-0.62178217, -0.09138877, -0.62723398], [-0.72026108,  0.41996923,  0.15503853]]))

    如上结果所示,特征根和特征向量的结果存储在元组中,元组的第一个元素就是特征根,每个特征根对应的特征向量存储在元组的第二个元素中。

    多元线性回归模型的解

    多元线性回归模型一般用来预测连续的因变量,如根据天气状况预测游客数量、根据网站的活动页面预测支付转化率、根据城市人口的收入、教育水平、寿命等预测犯罪率等。该模型可以写成Y=Xβ+ε,其中Y为因变量,X为自变量,ε为误差项。要想根据已知的X来预测Y的话,必须得知道偏回归系数β的值,对于熟悉多元线性回归模型的读者来说,一定知道偏回归系数的求解方程,即新知图谱, 五分钟了解这几个numpy的重要函数

    # 计算偏回归系数

    X = np.array([[1,1,4,3],[1,2,7,6],[1,2,6,6],[1,3,8,7],[1,2,5,8],[1,3,7,5],[1,6,10,12],[1,5,7,7],[1,6,3,4],[1,5,7,8]])Y = np.array([3.2,3.8,3.7,4.3,4.4,5.2,6.7,4.8,4.2,5.1])X_trans_X_inverse = np.linalg.inv(np.dot(np.transpose(X),X))beta = np.dot(np.dot(X_trans_X_inverse,np.transpose(X)),Y)print('偏回归系数为:n',beta)

    偏回归系数为:

    [ 1.78052227  0.24720413  0.15841148  0.13339845]

    如上所示,X数组中, 第一列全都是1 ,代表了这是线性回归模型中的 截距项, 剩下的三列代表自变量。根据β的求解公式,得到模型的偏回归系数。从而可以将多元线性回归模型表示为新知图谱, 五分钟了解这几个numpy的重要函数

    多元一次方程组的求解

    在中学的时候就学过有关多元一次方程组的知识,例如《九章算术》中有一题是这样描述的:今有上禾三秉,中禾二秉,下禾一秉,实三十九斗;上禾二秉,中禾三秉,下禾一秉,实三十四斗;上禾一秉,中禾二秉,下禾三秉,实二十六斗;问上、中、下禾实秉各几何?解答这个问题就需要应用三元一次方程组,该方程组可以表示为:

    新知图谱, 五分钟了解这几个numpy的重要函数

    在线性代数中,这个方程组就可以表示成AX=b,A代表等号左边数字构成的矩阵,X代表三个未知数,b代表等号右边数字构成的向量。如需求解未知数X,可以直接使用linalg 子模块中的solve函数 ,具体代码如下:

    # 多元线性方程组

    A = np.array([[3,2,1],[2,3,1],[1,2,3]])b = np.array([39,34,26])X = np.linalg.solve(A,b)print('三元一次方程组的解:n',X)

    三元一次方程组的解:

    [ 9.25  4.25  2.75]

    如上结果所示,得到方程组x,y,z的解分别是9.25,4.25和2.75。

    范数的计算

    范数常常用来度量某个向量空间(或矩阵)中的每个向量的长度或大小,它具有三方面的约束条件,分别是非负性、齐次性和三角不等性。最常用的范数就是p范数,其公式可以表示成新知图谱, 五分钟了解这几个numpy的重要函数。关于范数的计算,可以使用linalg 子模块中的 norm函数 ,举例如下:

    # 范数的计算

    arr17 = np.array([1,3,5,7,9,10,-12])# 一范数res1 = np.linalg.norm(arr17, ord = 1)print('向量的一范数:n',res1)# 二范数res2 = np.linalg.norm(arr17, ord = 2)print('向量的二范数:n',res2)# 无穷范数res3 = np.linalg.norm(arr17, ord = np.inf)print('向量的无穷范数:n',res3)

    向量的一范数:

    47.0 向量的二范数: 20.2237484162 向量的无穷范数: 12.0

    如上结果所示,向量的无穷范数是指从向量中挑选出绝对值最大的元素。

    结语

    本期的内容就介绍到这里,如果你有任何问题,欢迎在公众号的留言区域表达你的疑问。同时,也欢迎各位朋友继续转发与分享文中的内容,让更多的人学习和进步。

    来源商业新知网,原标题:五分钟了解这几个numpy的重要函数

  • 相关阅读:
    03-19总结
    JS-DOM
    难题汇总,浮动,伪元素(行级),
    bug汇总
    两栏布局
    表单 form
    a 、ul、 table 标签
    Bootstrap的基本使用(css、js文件的引入)
    6. CSS样式
    5 CSS
  • 原文地址:https://www.cnblogs.com/xinzhihao/p/11200725.html
Copyright © 2011-2022 走看看