zoukankan      html  css  js  c++  java
  • 深度学习系列 Part (1)

    传统机器学习的回顾

    近年来,深度学习的概念十分火热,人工智能也由于这一技术的兴起,在近几年吸引了越来越多的关注。我们这里,将结合一些基本的用例,简要的介绍一下这一新的技术。

    我们首先需要明确人工智能、机器学习以及深度学习三者之间的关系。如NVIDIA官网所述,人工智能是一个非常大的概念,而机器学习只是人工智能的一种实现方法。深度学习是同样也是一种实现机器学习的方法,是在机器学习的基础上建立起来的。这体现在,首先从字面上看,二者都是在“学习”,因此在评价深度学习训练出的模型好坏时,同样直接来源于机器学习的评价方法。其次,深度学习最常见的形式,深度神经网络,直接脱胎于机器学习中的神经网络模型。

    因此,本文主要将从评价方法以及模型实现这两个方面,基于传统机器学习的概念,谈一谈深度学习。


    1. 机器学习的评价方法

    我们首先讲一下评价方法问题。为了让本文看起来更加有趣,我们不妨把“机器”理解为“学生”。我们知道,学生有所谓的“好学生”,通常我们搞应试教育,学习成绩好的是“好学生”,不好的就不是“好学生”,但现在流行素质教育,从素质教育的角度看,可能有的学生学习成绩中等,但是团结同学、体育优秀、能歌善舞,这样也算是好学生。

    这就涉及到了不同评价标准的问题——应试教育和素质教育。机器学习同样有这两种评价方式,应试教育、唯分数论的监督学习,和素质教育、综合考量并不明确打分的非监督学习。注意这里有一个误区,即可能现在认为素质教育优于应试教育,近期大牛们也一再强调非监督算法的重要意义。但实际上如果拿到一个学习任务,具体使用哪一种方式去分析,还是需要考虑应用场景。通常我们不了解这个学习任务的目的性、需要找线索时,会用非监督找线索,方法包括聚类、降维。而如果明确了学习的目的性,追求高准确率,这时候就需要使用监督学习的方法。

    具体举一个鸢尾花分类的例子。我们使用 费雪鸢尾花卉数据集(Fisher's Iris data set),它最初是埃德加·安德森从加拿大加斯帕半岛上的鸢尾属花朵中提取的地理变异数据,包含了150个样本,都属于鸢尾属下的三个亚属,分别是山鸢尾(0)、变色鸢尾(1)和维吉尼亚鸢尾(2)。四个特征被用作样本的定量分析,它们分别是花萼(Sepal)和花瓣(Petal)的长度和宽度:

    Sepal LengthSepal WidthPetal LengthPetal WidthSpecies
    5.1 3.5 1.4 0.2 0
    4.9 3.0 1.4 0.2 0
    4.7 3.2 1.3 0.2 0
    ... ... ... ... ...
    7.0 3.2 4.7 1.4 1
    6.4 3.2 4.5 1.5 1
    6.9 3.1 4.9 1.5 1
    ... ... ... ... ...
    6.5 3.0 5.2 2.0 2
    6.2 3.4 5.4 2.3 2
    5.9 3.0 5.1 1.8 2

    于是,我们就想,是否可以用鸢尾花数据集里面包含的四个特征,去预测花的种类?如果要这么做,我们首先应该明确不同种类的鸢尾花,这四个特征是否真的有区别(非监督学习),如果确实有所区别,我们就可以在此基础上,用这几个特征去追求高的分类准确性(监督学习)。下面部分我们逐个执行这些步骤。

    1.1 使用数据可视化、降维、聚类等非监督方法,探索数据特征

    首先展示不同种类鸢尾花四个数据两两组合的情况,如下:

    Python 3
    Python示例代码
     
     
     
     
     
    1
    import matplotlib.pyplot as plt
    2
    from sklearn import datasets
    3
    import seaborn as sns
    4
    5
    %matplotlib inline
    6
    7
    data = datasets.load_iris()
    8
    X = data.data
    9
    color = data.target
    10
    sns.set_style("white")
    11
    12
    # compatibility matplotlib < 1.0
    13
    df = sns.load_dataset("iris")
    14
    sns.pairplot(df, hue="species")
     
     

    这些特征的两两组合,起来确实和花的种类有关。但实际上我们总共有四个维度,这里只能看见两个,我们能否将四个维度换成两个维度、展示在一个平面上呢?这里使用了多种非监督的降维方法,尝试去从非监督的角度,展示不同种类之间的区别:

    Python 3
    Python示例代码
     
     
     
     
     
    1
    import matplotlib.pyplot as plt
    2
    from sklearn import datasets
    3
    import seaborn as sns
    4
    5
    %matplotlib inline
    6
    7
    data = datasets.load_iris()
    8
    X = data.data
    9
    color = data.target
    10
    sns.set_style("white")
    11
    12
    13
    from sklearn import decomposition
    14
    from sklearn import manifold
    15
    from matplotlib.ticker import NullFormatter
    16
    from time import time
    17
    18
    n_components = 2
    19
    n_neighbors = 10
    20
    data = datasets.load_iris()
    21
    X = data.data
    22
    color = data.target
    23
    24
    fig = plt.figure(figsize=(15, 4))
    25
    26
    27
    t0 = time()
    28
    Y = manifold.Isomap(n_neighbors, n_components).fit_transform(X)
    29
    t1 = time()
    30
    print("Isomap: %.2g sec" % (t1 - t0))
    31
    ax = fig.add_subplot(151)
    32
    plt.scatter(Y[:, 0], Y[:, 1], c=color, cmap=plt.cm.Set1)
    33
    plt.title("Isomap (%.2g sec)" % (t1 - t0))
    34
    ax.xaxis.set_major_formatter(NullFormatter())
    35
    ax.yaxis.set_major_formatter(NullFormatter())
    36
    plt.axis('tight')
    37
    38
    39
    t0 = time()
    40
    mds = manifold.MDS(n_components, max_iter=100, n_init=1)
    41
    Y = mds.fit_transform(X)
    42
    t1 = time()
    43
    print("MDS: %.2g sec" % (t1 - t0))
    44
    ax = fig.add_subplot(152)
    45
    plt.scatter(Y[:, 0], Y[:, 1], c=color, cmap=plt.cm.Set1)
    46
    plt.title("MDS (%.2g sec)" % (t1 - t0))
    47
    ax.xaxis.set_major_formatter(NullFormatter())
    48
    ax.yaxis.set_major_formatter(NullFormatter())
    49
    plt.axis('tight')
    50
    51
    52
    t0 = time()
    53
    se = manifold.SpectralEmbedding(n_components=n_components,
    54
                                    n_neighbors=n_neighbors)
    55
    Y = se.fit_transform(X)
    56
    t1 = time()
    57
    print("SpectralEmbedding: %.2g sec" % (t1 - t0))
    58
    ax = fig.add_subplot(153)
    59
    plt.scatter(Y[:, 0], Y[:, 1], c=color, cmap=plt.cm.Set1)
    60
    plt.title("SpectralEmbedding (%.2g sec)" % (t1 - t0))
    61
    ax.xaxis.set_major_formatter(NullFormatter())
    62
    ax.yaxis.set_major_formatter(NullFormatter())
    63
    plt.axis('tight')
    64
    65
    t0 = time()
    66
    pca = decomposition.PCA(n_components=n_components)
    67
    pca.fit(X)
    68
    Y = pca.transform(X)
    69
    70
    t1 = time()
    71
    print("PCA: %.2g sec" % (t1 - t0))
    72
    ax = fig.add_subplot(154)
    73
    plt.scatter(Y[:, 0], Y[:, 1], c=color, cmap=plt.cm.Set1)
    74
    plt.title("PCA (%.2g sec)" % (t1 - t0))
    75
    ax.xaxis.set_major_formatter(NullFormatter())
    76
    ax.yaxis.set_major_formatter(NullFormatter())
    77
    plt.axis('tight')
    78
    79
    80
    t0 = time()
    81
    tsne = manifold.TSNE(n_components=n_components, init='pca', random_state=0, perplexity=40)
    82
    Y = tsne.fit_transform(X)
    83
    t1 = time()
    84
    print("t-SNE: %.2g sec" % (t1 - t0))
    85
    ax = fig.add_subplot(155)
    86
    plt.scatter(Y[:, 0], Y[:, 1], c=color, cmap=plt.cm.Set1)
    87
    plt.title("t-SNE (%.2g sec)" % (t1 - t0))
    88
    ax.xaxis.set_major_formatter(NullFormatter())
    89
    ax.yaxis.set_major_formatter(NullFormatter())
    90
    plt.axis('tight')
    91
    92
    plt.show()
     
     

    我们可以看到基于花萼(Sepal)和花瓣(Petal)的长度和宽度特征,可以通过非监督的数学方法,在降维后,将三种鸢尾花分开。由此,我们明确了学习的目的性(根据花萼和花瓣的长度和宽度特征,对三种鸢尾花分类)。其中第一类和其他两类可以很好区分,而第二类、第三类之间区分度并不好,这也是一个潜在的问题。

    1.2 基于特征的监督模型预测

    明确目的之后,我们就可以采用监督学习的方法,使用模型进行分类。监督学习有很多模型,包括深度学习中的神经网络模型。监督学习的基础,是我们已知一部分数据以及其对应的结果,对这些已知结果的数据进行建模,使模型预测的结果和已知的结果越接近越好。这种接近的程度用损失函数来表示,进而通过最小化这个损失函数,得到最优模型。

    经典的机器学习方法,可以基于高斯过程

    也可以使用基于核方法的支持向量机

    更可以通过决策树的集成

    同时也可以使用 Tensorflow ,建立一个包含三个隐藏层深度神经网络。以下例子来自 Tensorflow 官网:

    Python 3
    Python示例代码
     
     
     
     
     
    1
    from __future__ import absolute_import
    2
    from __future__ import division
    3
    from __future__ import print_function
    4
    5
    import os
    6
    import urllib
    7
    8
    import tensorflow as tf
    9
    import numpy as np
    10
    11
    IRIS_TRAINING = "iris_training.csv"
    12
    IRIS_TEST = "iris_test.csv"
    13
    14
    # 下载数据
    15
    for infile in [IRIS_TRAINING, IRIS_TEST]:
    16
        if not os.path.exists(infile):
    17
            raw = urllib.urlopen("http://download.tensorflow.org/data/%s" % IRIS_TRAINING_URL).read()
    18
            with open(infile,'w') as f:
    19
                f.write(raw)
    20
    21
    training_set = tf.contrib.learn.datasets.base.load_csv_with_header(
    22
              filename=IRIS_TRAINING,
    23
              target_dtype=np.int,
    24
              features_dtype=np.float32)
    25
    26
    test_set = tf.contrib.learn.datasets.base.load_csv_with_header(
    27
              filename=IRIS_TEST,
    28
              target_dtype=np.int,
    29
              features_dtype=np.float32)
    30
    31
    32
    # 使用花萼花瓣的长宽作为输入特征
    33
    feature_columns = [tf.contrib.layers.real_valued_column("", dimension=4)]
    34
    35
    # 建立一个三层的神经网络,每层分别包含 10个、 20个、 10个隐藏单元。
    36
    classifier = tf.contrib.learn.DNNClassifier(feature_columns=feature_columns,
    37
                                                   hidden_units=[10, 20, 10],
    38
                                                   n_classes=3,
    39
                                                   model_dir="/tmp/iris_model")
    40
    41
    # 训练数据转化成 Tensorflow 格式
    42
    def get_train_inputs():
    43
        x = tf.constant(training_set.data)
    44
        y = tf.constant(training_set.target)
    45
        return x, y
    46
    47
    # 训练模型
    48
    classifier.fit(input_fn=get_train_inputs, steps=2000)
    49
    50
    # 测试数据转换成 Tensorflow 格式
    51
    def get_test_inputs():
    52
        x = tf.constant(test_set.data)
    53
        y = tf.constant(test_set.target)
    54
    55
        return x, y
    56
    57
    # 评价准确率
    58
    accuracy_score = classifier.evaluate(input_fn=get_test_inputs,
    59
                                         steps=1)["accuracy"]
    60
    61
    print("
    Test Accuracy: {0:f}
    ".format(accuracy_score))
     
     

    最终这个简单的深度神经网络模型,会实现一个 96% 的分类准确率。

    1.3 结果的评价指标以及潜在问题

    注意这里最优模型拼准确率时,有一个很大的问题,就是数据分布不平均时,单纯的使用错误率作为标准,会有很大的问题。比如某一种罕见疾病的发病率是万分之一(0.01%) ,这时候如果一个模型什么都不管,直接认为这个人没有病,也能拿到一个 99.99%正确的模型。如何正确衡量这个问题?如果是经典的二分类问题,这种情况下我们需要综合考虑 灵敏度以及 假阳性率,用这两个指标计算ROC 曲线,继而计算 ROC 围成的面积——AUC 值 (详见这里)。 这种情况下,我们可以认为,AUC 值越高越好

    注意这里AUC 越高越好和最小化损失函数这两个概念,这里意味着,可能某个模型,损失函数已经最小化了,但是AUC 却并不高,造成模型在实际使用时,会引入很多错误——一个较低的 AUC 值,可能会在追求高灵敏度时引入了大量的假阳性,正如古话所言,“宁可错杀一万,不可放过一个”,后果就是可能医生通知了十位患者有患癌风险,最终可能只有一位真有问题,其他九人虚惊一场。这种情况,模型并未被很好的训练,可能存在着 欠拟合 的问题。同时,也可能损失函数最小化以后,测试数据 AUC 也很高,但是实际运用在真实案例中,却又有大量的错误,这种情况被称作 过拟合

    那么如何避免这两种问题呢?前面提到,监督学习如同“应试教育”,所以机器学习过程为了避免这两种常见问题,也使用了一种类似“题海战术”的策略,即老师手里有一堆题目,不会全都给学生,会分成三个部分,一部分作为 训练集(平时作业),一部分作为验证集(平时考试),最后还有 测试集(中考高考)。训练集有数据也有答案,验证集同样有数据有答案,但和平时课堂测试一样,答案是考完试才给看的。而用到测试集时,才会最终评价模型的优劣,如同学生平时作业得分第一,但高考没有考第一,那他也不是状元。

    为了避免平时作业写得好、高考失误这种悲剧,合理的运用平时考试抓差补缺就十分必要。机器学习的过程中,这一条同样成立,具体而言,如果一个学生,作业全对,但是平时考试成绩不好,这种情况用机器学习术语就是 过拟合 了,可能的原因是,机器学习过程中使用了过多的参数去迎合数据,片面追求平时学习过程的准确率,造成知其然不知其所以然的结果,在实际运用过程中表现很差。还有种情况可能更加常见,就是一个学生,写作业错一堆,考试也一堆错,这种情况,就是 欠拟合,可能是学习不够、方法不对,需要更多的特征、更优化的模型。

    2. 提高深度学习模型预测的准确性

    回到鸢尾花的例子,我们写的最简单的深度学习模型,达到了 96% 的准确性。那么问题来了,如果我们追求的是 100%,如何提高模型的表现?

    调整模型的参数,无疑是最简单最快速的方法,但调参并不能从根本上解决分类准确性的问题。如果是数据 欠拟合,则通常需要更多的特征、更优化的模型。

    我们首先说 更多的特征,比如我们这里只用了四个特征,花瓣、花萼的长度和宽度。而植物分类学家使用的特征,可能就会包括诸如 “根部是否肥大呈纺锤形”、“外花被裂片附属物有无或附属物是须毛状还是鸡冠状”、“rbcL基因序列和3个限制性位点的比对” 这种更加专业的特征,这些特征可能只有专业人士才能得出结论,甚至需要借助专业的仪器、花费数天时间。

    但实际上,植物分类,并不一定要按照植物分类学课本的定义进行,可能普通人看一眼也可以分的差不多。比如我们的三种鸢尾花,我们看起来确实是第一类和第二三类不同,然后二三类之间区别相对更小,但其形状、颜色、纹路等确实有所区别:

    因此对于鸢尾花数据集,各种模型可能都并不足以达到100% 准确分类,其背后深层次的原因是,这个数据集可能并没有很好的表征花瓣的形状、颜色、纹路等特征。原因也很简单,数据收集者很难准确用几个数字描述出花瓣的形状,特别是形状极为相似的情况。同时,描述出深紫色、浅紫色的区别也十分困难。于是有一个想法,就是我们能不能直接给出图片,让计算机帮忙标注这些特征,用更多的特征,增加模型准确性?

    想让计算机帮忙挖掘、标注这些更多的特征,这就离不开 更优化的模型 了。事实上,这几年深度学习领域的新进展,就是以这个想法为基础产生的。我们可以使用更复杂的深度学习网络,在图片中挖出数以百万计的特征。在这些数以百万计的特征中,可能就包括了我们想到的形状、纹路、颜色等信息,更多的则是我们也无法理解、描述的东西。如下图,使用 Alexnet 深度学习架构,后面的全连接部分(Fully Connection Part)与本节 1.2 部分相同,都是三层隐藏层,但是前面却接了一个卷积部分(Convolutionary Part),用来在图像中提取各种特征。

    我们将在接下来的章节中,详细介绍如何通过深度学习技术,在图像中挖出更多的特征,达到一个更高的分类正确性。

  • 相关阅读:
    update结合查询更新
    查表字段名,注释
    微信access_token
    Oracle中的dual伪表
    Oracle中的null
    UIView九宫格
    UIWebView使用
    sql触发器Tigger
    重写init方法
    OC内存管理示例
  • 原文地址:https://www.cnblogs.com/yangshunde/p/7739948.html
Copyright © 2011-2022 走看看