zoukankan      html  css  js  c++  java
  • 博雅大数据机器学习十讲第六讲

    特征值分解

    • (A)(n)阶方阵,如果有常数(lambda)(n)维非零列向量(alpha)的关系式

    [Aalpha=lambdaalpha ]

    成立,则称(lambda)为方阵(A)的特征值,非零向量(alpha)称为方阵(A)的对应于特征值(lambda)的特征向量

    • 设方阵(Ain R^{x imes x})(n)个​线性无关的特征向量,存在一个特征分解公式:(A=ULambda U^{-1})
    • 其中(U)的列向量是方阵(A)的单位化后的特征向量,(Lambda)矩阵中的对角元素是方阵(A)的特征值
    • (Lambda=diag(lambda_1,lambda_2,...,lambda_n))
    • 表达式(A=ULambda U^{(-1)})称为方阵的特征值分解,此时方阵就被特征值和特征向量唯一表示
    • (A=ULambda U^{(-1)})进行一个变换,可得$U^{(-1)}AU=Lambda $
    • 根据实对称矩阵单位化可知(U^{(-1)}=U^{T})
    • 降维((dimensionality\,\,\,reduction)):将数据的特征数量从高维转换到低维
    • 实际中很多数据是高维的,但数据"内在的维度"可能更低
      • 通信数据原始有七维:入网时间、套餐价格、每月话费、每月流量、每月通话时长欠费金额、欠费月数
      • ”内在维度“可能只有3个:用户忠诚度、消费能力、欠费指数
    • 解决高维数据的维度灾难问题的一种手段
    • 能够作为一种特征抽取的方法
    • 便于对数据进行可视化分析

    主成分分析

    • 主成分分析((Principal\,\,Component\,\,Analysis,PCA)),1901年由(Karl\,\,Pearson)提出

    • 在人脸识别和图像压缩等领域得到了广泛的应用

    • 基本思想:构造原始特征的一系列线性组合形成的线性无关低维特征,以去除数据的相关性,并使降维后的数据最大程度地保持原始数据的方差信息

    • 数据集(D={x_1,x_2,...,x_n}),每个样本表示成(d)维向量,且每个维度均为连续型特征。数据集(D)也可以表示成一个(n imes d)的矩阵(X)

    • 为了便于描述,我们进一步假设每一维特征的均值为零(已做中心化处理),且使用一个(d imes l)的线性转换矩阵(W)来表示将(d)维的数据降到(l)维((l<d))空间的过程,降维后的数据用(Y)表示,有(Y=XW)

    • 降维后数据的方差为

    [egin{equation} egin{aligned} var(Y)&=frac{1}{n-1}tr(Y^TY)\ &=frac{1}{n-1}tr(W^TX^TXW)\ &=tr(W^Tfrac{1}{n-1}X^TXW) end{aligned} end{equation} ]

    • 原始数据集的协方差矩阵(sum = frac{1}{n-1}X^TX),则(PCA)的数学模型为

    [max_W\,tr(W^Tsum W)\ s.t.\,w_iw_i=1\,\,iin{1,2,...,l} ]

    • 使用拉格朗日乘子法将上述带约束的最优化问题转化为无约束的最优化问题,对应的拉格朗日函数为

    [L(W,lambda)=tr(W^Tsum W)-sum^l_{i=1}lambda_i(w_i^Tw_i-1) ]

    其中({lambda_1,lambda_2,...,lambda_l})为拉格朗日乘子,(w_i)为矩阵(W)(i)

    • (w_i)求偏导并令导数为零,有

    [sum w_i = lambda_iw_i ]

    • 即我们要求的转换矩阵(W)的每一个列向量(w_i)都是数据(X)的协方差矩阵(sum)的特征向量,而(lambda_i)为对应的特征值

    • (sum w_i=lambda_iw_i),且(tr(W^Tsum W)=sum^l_{i=1}w_i^Tsum w_i),有(tr(W^Tsum W)=sum^l_i lambda_i)

    • (PCA)最优化的方差等于原数据集(X)的协方差矩阵的(l)个特征值之和

    • 要使上述方差最大,我们只要首先得(sum)的特征向量和特征值,然后取最大的(l)个特征值对应的特征向量组成转换矩阵(W)即可

    • 算法流程:

      • 输入:数据矩阵(X),降维后样本维数(l).
      • 输出:转换矩阵(W=(w_1,w_2,...,w_l)).
      • 对于(X)中的每一个样本(x_i)进行中心化处理:(x_ileftarrow x_i-m),其中(m=frac{1}{n}sum^n_{j=1}x_j)为样本均值;
      • 计算协方差矩阵(sum=frac{1}{n-1}X^TX)
      • 对协方差矩阵(sum)做特征值分解并将特征值降序排序:(lambda_1 le lambda_2 le ...le lambda_d)
      • 取最大的前(l)个特征值相对应的特征向量(w_1,w_2,...,w_l)组成转换矩阵(W).

    自编码器

    • 一种特殊的神经网络,尝试将输入复制到输出,能够表示非线性变换
    • 编码器:将输入(x)转换成隐含表示(h)
    • 解码器:将隐含表示(h)转换成输出(x^{'})
    • 优化目标:使得(x^{'})(x)尽量接近
    • 当隐含层神经元数量小于输入层时,可以当做一种降维算法

    深沉编码器

    • 指数级地降低表示某些函数的计算成本
    • 指数级地学习某些函数所需的训练数据量
    • 一些实验结果表明,深层自编码器比浅编码器产生更好的压缩效果

    案例:

    # Numpy 的 linalg 模块实现了常见的线性代数运算,包括矩阵的特征值求解。其中 eig 函数能够计算出给定方阵的特征值和对应的右特征向量。我们实现函数 principal_component_analysis,其输入为数据集  XX  和主成分数量  ll ,返回降维后的数据、  ll  个主成分列表和对应的特征值列表。主成分按照特征值大小降序排序。
    import numpy as np
    def principal_component_analysis(X, l):
        X = X - np.mean(X, axis=0)#对原始数据进行中心化处理
        sigma = X.T.dot(X)/(len(X)-1) # 计算协方差矩阵
        a,w = np.linalg.eig(sigma) # 计算协方差矩阵的特征值和特征向量
        sorted_indx = np.argsort(-a) # 将特征向量按照特征值进行排序
        X_new = X.dot(w[:,sorted_indx[0:l]])#对数据进行降维
        return X_new,w[:,sorted_indx[0:l]],a[sorted_indx[0:l]] #返回降维后的数据、主成分、对应特征值
    # 生成一份随机的二维数据集。为了直观查看降维效果,我们借助 make_regression 生成一份用于线性回归的数据集。将自变量和标签进行合并,组成一份二维数据集。同时对两个维度均进行归一化。
    from sklearn import datasets
    import matplotlib.pyplot as plt
    %matplotlib inline
    x, y = datasets.make_regression(n_samples=200,n_features=1,noise=10,bias=20,random_state=111)
    x = (x - x.mean())/(x.max()-x.min())
    y = (y - y.mean())/(y.max()-y.min())
    fig, ax = plt.subplots(figsize=(6, 6)) #设置图片大小
    ax.scatter(x,y,color="#E4007F",s=50,alpha=0.4)
    plt.xlabel("$x_1$")
    plt.ylabel("$x_2$")
    

    image-20210227223718729

    # 使用 PCA 对数据集进行降维。
    import pandas as pd
    X = pd.DataFrame(x,columns=["x1"])
    X["x2"] = y
    X_new,w,a = principal_component_analysis(X,1)
    # 将第一个主成分方向的直线绘制出来。直线的斜率为 w[1,0]/w[0,0]。将主成分方向在散点图中绘制出来。
    import numpy as np
    x1 = np.linspace(-.5, .5, 50)
    x2 = (w[1,0]/w[0,0])*x1
    fig, ax = plt.subplots(figsize=(6, 6)) #设置图片大小
    X = pd.DataFrame(x,columns=["x1"])
    X["x2"] = y
    ax.scatter(X["x1"],X["x2"],color="#E4007F",s=50,alpha=0.4)
    ax.plot(x1,x2,c="gray") # 画出第一主成分直线
    plt.xlabel("$x_1$")
    plt.ylabel("$x_2$")
    

    image-20210227223811055

    # 我们还可以将降维后的数据集使用散点图进行绘制。
    import numpy as np
    fig, ax = plt.subplots(figsize=(6, 2)) #设置图片大小
    ax.scatter(X_new,np.zeros_like(X_new),color="#E4007F",s=50,alpha=0.4)
    plt.xlabel("First principal component")
    

    image-20210227223919929

    Olivetti 人脸数据集。原始数据库可从(http://www.cl.cam.ac.uk/research/dtg/attarchive/facedatabase.html)。我们使用的是 Sklearn 提供的版本。该版本是纽约大学 Sam Roweis 的个人主页以 MATLAB 格式提供的。

    数据集包括40个不同的对象,每个对象都有10个不同的人脸图像。对于某些对象,图像是在不同的时间、光线、面部表情(睁眼/闭眼、微笑/不微笑)和面部细节(眼镜/不戴眼镜)下拍摄。所有的图像都是在一个深色均匀的背景下拍摄的,被摄者处于直立的正面位置(可能有细微面部移动)。原始数据集图像大小为 (92 imes 112),而 Roweis 版本图像大小为 (64 imes 64)

    首先,我们使用 Sklearn 实现的方法读取人脸数据集。

    from sklearn.datasets import fetch_olivetti_faces
    faces = fetch_olivetti_faces()
    faces.data.shape
    # 选取部分人脸,使用 matshow 函数将其可视化。
    rndperm = np.random.permutation(len(faces.data))
    plt.gray()
    fig = plt.figure(figsize=(9,4) )
    for i in range(0,18):
        ax = fig.add_subplot(3,6,i+1 )
        ax.matshow(faces.data[rndperm[i],:].reshape((64,64)))
        plt.box(False) #去掉边框
        plt.axis("off")#不显示坐标轴
    plt.show()
    # 使用 PCA 将人脸数据降维到 20 维。其中 %time 是由 IPython 提供的魔法命令,能够打印出函数的执行时间。
    %time faces_reduced,W,lambdas = principal_component_analysis(faces.data,20)
    # PCA 中得到的转换矩阵  WW  是一个  d×ld×l  矩阵。其中每一列称为一个主成分。在人脸数据集中,得到的 20 个主成分均为长度为 4096 的向量。我们可以将其形状转换成  64×6464×64 ,这样每一个主成分也可以看作是一张人脸图像,在图像分析领域,称为特征脸。使用 matshow 函数,将特征脸进行可视化如下。
    fig = plt.figure( figsize=(18,4))
    plt.gray()
    for i in range(0,20):
        ax = fig.add_subplot(2,10,i+1 )
        ax.matshow(W[:,i].reshape((64,64)))
        plt.title("Face(" + str(i) + ")")
        plt.box(False) #去掉边框
        plt.axis("off")#不显示坐标轴
    plt.show()
    sample_indx = np.random.randint(0,len(faces.data)) #随机选择一个人脸的索引
    #显示原始人脸
    plt.matshow(faces.data[sample_indx].reshape((64,64)))
    # 注意,由于 PCA 算法对图像进行了中心化,在重构人脸时还需要加上数据的平均值(这里称为平均脸)。
    # 显示重构人脸
    plt.matshow(faces.data.mean(axis=0).reshape((64,64)) + W.dot(faces_reduced[sample_indx]).reshape((64,64)))
    # 对于每一个样本,降维后的每一个维度的取值代表的是对应主成分的权重。实际上就是利用不同特征脸的权重和再加上平均脸,才对原始人脸进行了重构。我们将上述样本的重构过程用图画出来。
    fig = plt.figure( figsize=(20,4))
    plt.gray()
    ax = fig.add_subplot(2,11,1)
    ax.matshow(faces.data.mean(axis=0).reshape((64,64))) #显示平均脸
    for i in range(0,20):
        ax = fig.add_subplot(2,11,i+2 )
        ax.matshow(W[:,i].reshape((64,64)))
        plt.title( str(round(faces_reduced[sample_indx][i],2)) + "*Face(" + str(i) + ")")
        plt.box(False) #去掉边框
        plt.axis("off")#不显示坐标轴
    plt.show()
    

    使用(MNIST)手写数字数据集理解(PCA)主成分的含义

    MNIST 手写数字数据集是在图像处理和深度学习领域一个著名的图像数据集。该数据集包含一份 60000 个图像样本的训练集和包含 10000 个图像样本的测试集。每一个样本是 28×2828×28 的图像,每个图像有一个标签,标签取值为 0-9 。 MNIST 数据集下载地址为 http://yann.lecun.com/exdb/mnist/。

    import numpy as np
    f = np.load("input/mnist.npz") 
    X_train, y_train, X_test, y_test = f['x_train'], f['y_train'],f['x_test'], f['y_test']
    f.close()
    # 将图像拉平成 784 维的向量表示,并对像素值进行归一化。
    x_train = X_train.reshape((-1, 28*28)) / 255.0
    x_test = X_test.reshape((-1, 28*28)) / 255.0
    # 筛选出一个数字 8 的数据。
    digit_number = x_train[y_train == 8]
    # 随机选择部分数据进行可视化展示。
    rndperm = np.random.permutation(len(digit_number))
    %matplotlib inline
    import matplotlib.pyplot as plt
    plt.gray()
    fig = plt.figure( figsize=(12,12) )
    for i in range(0,100):
        ax = fig.add_subplot(10,10,i+1)
        ax.matshow(digit_number[rndperm[i]].reshape((28,28)))
        plt.box(False) #去掉边框
        plt.axis("off")#不显示坐标轴
    plt.show()
    

    image-20210227225210388

    # 利用我们实现的 PCA 算法函数 principal_component_analysis 将数字 8 的图片降维到二维。
    number_reduced,number_w,number_a = principal_component_analysis(digit_number,2)
    # 将降维后的二维数据集使用散点图进行可视化。
    import warnings
    warnings.filterwarnings('ignore') #该行代码的作用是隐藏警告信息
    import matplotlib.pyplot as plt
    %matplotlib inline
    fig, ax = plt.subplots(figsize=(8, 8)) #设置图片大小
    ax.scatter(number_reduced[:,0],number_reduced[:,1],color="#E4007F",s=20,alpha=0.4)
    plt.xlabel("First Principal Component")
    plt.ylabel("Second Principal Component")
    

    image-20210227225307916

    # 我们首先提取降维之后的数据 number_reduced 的第一列数据 number_reduced[:,0],代表每一个样本在第一个主成分上的取值大小。按照取值从小到大进行排序,抽样提取原始的手写数字图片并进行可视化。
    sorted_indx = np.argsort(number_reduced[:,0])
    plt.gray()
    fig = plt.figure( figsize=(12,12) )
    for i in range(0,100):
        ax = fig.add_subplot(10,10,i+1)
        ax.matshow(digit_number[sorted_indx[i*50]].reshape((28,28)))
        plt.box(False) #去掉边框
        plt.axis("off")#不显示坐标轴
    plt.show()
    # 观察上图,可以看到数字 8 顺时针倾斜的角度不断加大。可见,第一个主成分的含义很可能代表的就是数字的倾斜角度。
    
    # 同理,我们观察第二主成分的结果。
    sorted_indx = np.argsort(number_reduced[:,1])
    plt.gray()
    fig = plt.figure( figsize=(12,12) )
    for i in range(0,100):
        ax = fig.add_subplot(10,10,i+1)
        ax.matshow(digit_number[sorted_indx[i*50]].reshape((28,28)))
        plt.box(False) #去掉边框
        plt.axis("off")#不显示坐标轴
    plt.show()
    

    image-20210227225417640

    # 从 MNIST 手写数字训练集中采样一个图像子集,使用 Matplotlib 中的 matshow 方法将图像可视化。
    rndperm = np.random.permutation(len(X_train))
    %matplotlib inline
    import matplotlib.pyplot as plt
    plt.gray()
    fig = plt.figure(figsize=(16,7))
    for i in range(0,30):
        ax = fig.add_subplot(3,10,i+1, title='Label:' + str(y_train[rndperm[i]]) )
        ax.matshow(X_train[rndperm[i]])
        plt.box(False) #去掉边框
        plt.axis("off")#不显示坐标轴
    plt.show()
    

    image-20210227225505311

    TensorFlow 是谷歌公司著名的开源深度学习工具。我们借助改工具可以很方便地进行神经网络的构建和训练。自编码器是本质上是一种特殊结构的全连接神经网络。全连接层在 TensorFlow 中称为 Dense 层,可以通过 tensorflow.keras.layers.Dense 类进行定义。

    首先,导入 TensorFlow 对应的模块。

    import tensorflow as tf
    import tensorflow.keras.layers as layers
    # 在实际的神经网络训练中,可以使用 GPU 进行加速,在平台我们尚没有 GPU 资源,因此会默认使用 CPU 进行训练。
    print(tf.test.is_gpu_available())
    # 将图像拉平成 784 维的向量表示,并对像素值进行归一化。
    x_train = X_train.reshape((-1, 28*28)) / 255.0
    x_test = X_test.reshape((-1, 28*28)) / 255.0
    # 构建一个自编码器,输入层大小为784,隐含层大小为 10, 输出层大小为 784 。在隐含层使用 ReLU 作为激活函数(非线性映射)。输出层则使用 Softmax 作为激活函数。自编码器模型构建步骤如下:
    inputs = layers.Input(shape=(28*28,), name='inputs')
    hidden = layers.Dense(10, activation='relu', name='hidden')(inputs)
    outputs = layers.Dense(28*28, name='outputs')(hidden)
    auto_encoder = tf.keras.Model(inputs,outputs)
    auto_encoder.summary()
    # 使用 compile 方法对模型进行编译。
    auto_encoder.compile(optimizer='adam',loss='mean_squared_error') #定义误差和优化方法
    %time auto_encoder.fit(x_train, x_train, batch_size=100, epochs=100,verbose=0) #模型训练
    # 对训练集中的数据,使用自编码器进行预测,得到重建的图像。然后将重建的图像与原始图像进行对比。
    x_train_pred = auto_encoder.predict(x_train)
    # Plot the graph
    plt.gray()
    fig = plt.figure( figsize=(16,4) )
    n_plot = 10
    for i in range(n_plot):
        ax1 = fig.add_subplot(2,10,i+1, title='Label:' + str(y_train[rndperm[i]]) )
        ax1.matshow(X_train[rndperm[i]])
        ax2 = fig.add_subplot(2,10,i + n_plot + 1)
        ax2.matshow(x_train_pred[rndperm[i]].reshape((28,28)))
        ax1.get_xaxis().set_visible(False)
        ax1.get_yaxis().set_visible(False)
        ax2.get_xaxis().set_visible(False)
        ax2.get_yaxis().set_visible(False)
    plt.show()
    

    image-20210227225649615

    # 现在我们构建一个更深的多层自编码器,结构为 784->200->50->10->50->200->784。
    inputs = layers.Input(shape=(28*28,), name='inputs')
    hidden1 = layers.Dense(200, activation='relu', name='hidden1')(inputs)
    hidden2 = layers.Dense(50, activation='relu', name='hidden2')(hidden1)
    hidden3 = layers.Dense(10, activation='relu', name='hidden3')(hidden2)
    hidden4 = layers.Dense(50, activation='relu', name='hidden4')(hidden3)
    hidden5 = layers.Dense(200, activation='relu', name='hidden5')(hidden4)
    outputs = layers.Dense(28*28, activation='softmax', name='outputs')(hidden5)
    deep_auto_encoder = tf.keras.Model(inputs,outputs)
    deep_auto_encoder.summary()
    deep_auto_encoder.compile(optimizer='adam',loss='binary_crossentropy') #定义误差和优化方法
    %time deep_auto_encoder.fit(x_train, x_train, batch_size=100, epochs=200,verbose=1) #模型训练
    x_train_pred2 = deep_auto_encoder.predict(x_train)
    # Plot the graph
    plt.gray()
    fig = plt.figure( figsize=(16,3) )
    n_plot = 10
    for i in range(n_plot):
        ax1 = fig.add_subplot(2,10,i+1, title='Label:' + str(y_train[rndperm[i]]) )
        ax1.matshow(X_train[rndperm[i]])
        ax3 = fig.add_subplot(2,10,i + n_plot + 1 )
        ax3.matshow(x_train_pred2[rndperm[i]].reshape((28,28)))
        ax1.get_xaxis().set_visible(False)
        ax1.get_yaxis().set_visible(False)
        ax3.get_xaxis().set_visible(False)
        ax3.get_yaxis().set_visible(False)
    plt.show()
    

    image-20210227225743349

    中文新闻数据降维和可视化

    我们使用 Pandas 的 read_csv 方法将中文新闻语料读取进来, encoding 参数和 sep 参数分别设置为 "utf8" 和 " " 。使用 sklearn.feature_extraction.text 模块的 TfidfVectorizer,将词列表格式的新闻转换成向量形式。向量中的每一个维度代表字典中的一个词,维度的取值代表词在对应文档中的 TF-IDF 取值。

    import pandas as pd
    
    news = pd.read_csv("./input/chinese_news_cutted_train_utf8.csv", sep="	", encoding="utf8")
    # 加载停用词
    stop_words = []
    file = open("./input/stopwords.txt")
    for line in file:
        stop_words.append(line.strip())
    file.close()
    
    from sklearn.feature_extraction.text import TfidfVectorizer
    
    vectorizer = TfidfVectorizer(stop_words=stop_words, min_df=0.01, max_df=0.5, max_features=500)
    news_vectors = vectorizer.fit_transform(news["分词文章"])
    news_df = pd.DataFrame(news_vectors.todense())
    # 使用 PCA 将数据降维到二维。
    from sklearn.decomposition import PCA
    pca = PCA(n_components=2)
    news_pca = pca.fit_transform(news_df)
    # 将降维后的数据可视化出来。
    import seaborn as sns
    import matplotlib.pyplot as plt
    plt.figure(figsize=(10,10))
    sns.scatterplot(news_pca[:,0], news_pca[:,1],hue = news["分类"].values,alpha=0.5)
    # 从上图可以看到,降维效果不是特别理想。不同主题的新闻在二维空间上互相重叠。下面我们使用 t-SNE 降维方法。
    # 使用 t-SNE 进行新闻降维和可视化
    from sklearn.manifold import TSNE
    pca10 = PCA(n_components=20)
    news_pca10 = pca10.fit_transform(news_df)
    tsne_news = TSNE(n_components=2, verbose=1)
    %time tsne_news_results = tsne_news.fit_transform(news_pca10)
    plt.figure(figsize=(10,10))
    sns.scatterplot(tsne_news_results[:,0], tsne_news_results[:,1],hue = news["分类"].values,alpha=0.5)
    

    image-20210227230007721

    可见,跟只使用 PCA 的方法相比, t-SNE 能够得到更好的低维新闻表示。

    本案例使用的主要 Python 工具,版本和用途列举如下。如果在本地运行遇到问题,请检查是否是版本不一致导致。

    工具包 版本 用途
    NumPy 1.17.4 求解特征值和特征向量
    Pandas 0.23.4 数据读取与预处理
    Matplotlib 3.0.2 数据可视化
    Seaborn 0.9.0 数据可视化
    Sklearn 0.19.1 中文新闻的向量化、t-SNE降维
    TensorFlow 1.12.0 自编码器的构建与训练
  • 相关阅读:
    【转载】zookeeper数据模型
    java.util.logging使用笔记2
    spark提交应用的方法(spark-submit)
    spark集群模式概述
    [spark]spark 编程教程
    [spark]Spark Streaming教程
    使用github pages创建博客
    spark 编程教程
    Spark编程指南V1.4.0(翻译)
    mysql基本操作
  • 原文地址:https://www.cnblogs.com/125418a/p/14457655.html
Copyright © 2011-2022 走看看