zoukankan      html  css  js  c++  java
  • TensorFlow和深度学习新手教程(TensorFlow and deep learning without a PhD)

    前言

    上月导师在组会上交我们用tensorflow写深度学习和卷积神经网络。并把其PPT的參考学习资料给了我们, 这是codelabs上的教程:《TensorFlow and deep learning,without a PhD》
    当然登入须要翻墙,我也顺带巩固下,做个翻译。不好之处请包括指正。

    当然须要安装python,教程推荐使用python3。假设是Mac,能够參考博主的另外两片博文,Mac下升级python2.7到python3.6
    Mac安装tensorflow1.0

    好多专业词太难译了。查了下,大家有些都是不译的。
    比方:dropout,learning rate decay,pkeep什么的。

    dropout这个词应该翻译成什么?


    1. 概述

    这里写图片描写叙述
    在这个codelab中。您将学习怎样创建和训练识别手写数字的神经网络。

    一路上,随着你增强神经网络的准确率达到99%,你还将学习到专业人员用来训练模型的高效工具。

    该codelab使用MNIST数据集,收集了60,000个标记的数字。你将学会用不到100行Python / TensorFlow代码来解决深度学习问题。

    你会学到什么

    • 什么是神经网络和怎样训练它
    • 怎样使用TensorFlow构建主要的1层神经网络
    • 怎样加入很多其它的神经网络层数
    • 训练技巧和窍门:过度拟合(overfitting),丢失信息(dropout)。学习速率衰退(learning rate decay)…
    • 怎样排查深层神经网络的故障
    • 怎样构建卷积神经网络(convolutional networks)

    你须要什么

    • Python 2或3(推荐Python 3)
    • TensorFlow
    • Matplotlib(Python可视化库)

    安装说明在实验室的下一步中给出。

    2. 准备:安装TensorFlow,获取演示样例代码

    在您的计算机上安装必要的软件:Python。TensorFlow和Matplotlib。这里给出了完整的安装说明:INSTALL.txt

    从GitHub的信息库,克隆源码(也能够直接登入这个网址,直接下载)

    git clone https://github.com/martin-gorner/tensorflow-mnist-tutorial

    下载的目录中含多个文件。首先是让mnist_1.0_softmax.py运行起来。其它非常多文件是用于载入数据和可视化结果的解决方式或支持代码。

    当您启动初始python脚本时。您应该看到一个实时可视化的培训过程:

    python3 mnist_1.0_softmax.py

    假设python3 mnist_1.0_softmax.py不起作用,用python命令:

    python mnist_1.0_softmax.py

    这里写图片描写叙述

    疑难解答:假设无法使实时可视化运行。或者您仅仅希望仅使用文本输出,则能够通过凝视掉一行并取消凝视还有一行来取消激活可视化。请參阅下载文件的底部的说明。

    为TensorFlow构建的可视化工具是TensorBoard。其功能比我们本次教程中所须要的很多其它。它能够在远程server上跟踪您的分布式TensorFlow作业。对于我们在这个实验中我们仅仅须要matplotlib的结果,能看到训练过程的实时动画,就当是个附带的奖励吧。可是,假设您须要使用TensorFlow进行跟踪工作,请确保查看TensorBoard。

    3. 理论:训练神经网络

    我们将首先观察正在接受训练的神经网络。

    代码将在下一节中进行说明,因此您先不须要看。

    我们的用神经网络训练手写数字,并对它们进行分类,即将手写数字识别为0,1。2等等,最多为9。它的模型基于内部变量(“权重”(weights)和“偏差”(biases),这两个词稍后解释),仅仅有将这些变量训练成正确值。分类工作才干正确进行。训练方式稍后也会详解。如今您须要知道的是,训练循环例如以下所看到的:

    训练数据 => 更新权重和偏差 => 更好的识别 (循环这三步)

    让我们逐个浏览可视化的六个面板,看看训练神经网络须要什么。


    这里写图片描写叙述
    在这里,您能够看到100个训练数字被送入训练循环,注意是一次100个数字。这图显示的是这100个手写数据被训练的结果。

    在眼下的训练状态下。神经网络已经能识别(包括白色背景和部分数字),当然也有些是识别错误的(图中红色背景的是计算机识别错误的手写数字,左側小打印的数字是该书写字的正确标签。右側小打印的数字是计算机标识别的错误标签)。

    该数据集中有50,000个训练数字。我们在每次迭代中将当中每100个进行训练,因此系统将在500次迭代后看到全部数字被训练了一次。我们称之为“纪元(epoch)”。

    这里写图片描写叙述
    为了測试训练好后模型的识别质量,我们必须使用系统在训练期间没实用到过的手写数字。否则。模型可能会识别全部已训练的数字,但仍然不能识别我刚才新写的数字“8”。

    MNIST数据集中包括10,000个測试手写数字。在这图里,您能够看到大约1000个数字,当中全部被识别错误的,都放在顶部(红色背景上)。图左側的比例能够大致表示分类器的准确性。

    这里写图片描写叙述
    为了开展训练,我们将定义一个损失函数。即代表系统识别数字的程度值。并尝试将其最小化。损失函数的选择(这里是“交叉熵(cross-entropy)”)将在后面解释。您在这里看到的是,随着训练的进展,训练和測试数据的损失都会下降:这是好的。这意味着神经网络正在学习。X轴表示通过学习循环的迭代次数。

    这里写图片描写叙述
    准确性仅仅是正确识别的数字的百分比。这是在训练和測试集上计算的。假设训练顺利,你会看到它上升。
    这里写图片描写叙述

    最后两个图代表了内部变量採用的全部值的范围。即随着训练的进行,权重和偏差。在这里,您能够看到。偏差最初从0開始,终于获得的值大致均匀分布在-1.5和1.5之间。假设系统不能非常好地收敛,这些图可能非常实用。假设你看到权重和偏差扩展到100或1000,训练可能就有问题了。

    图中的方格代表是百分位数。有7个频带,所以每一个频带是100/7 =全部值的14%。

    Keyboard shortcuts for the visualisation GUI:
    1 ……… display 1st graph only
    2 ……… display 2nd graph only
    3 ……… display 3rd graph only
    4 ……… display 4th graph only
    5 ……… display 5th graph only
    6 ……… display 6th graph only
    7 ……… display graphs 1 and 2
    8 ……… display graphs 4 and 5
    9 ……… display graphs 3 and 6
    ESC or 0 .. back to displaying all graphs
    SPACE ….. pause/resume
    O ……… box zoom mode (then use mouse)
    H ……… reset all zooms
    Ctrl-S …. save current image

    什么是“ 权重 ”和“ 偏差 ”?怎样计算“ 交叉熵 ”?训练算法到底怎样工作?那么来看下一节内容吧。

    4. 理论:1层神经网络

    这里写图片描写叙述
    MNIST数据集中的手写数字是28x28像素的灰度图像。

    对于它们进行分类的最简单方法是使用28x28 = 784像素作为第1层神经网络的输入。
    这里写图片描写叙述
    神经网络中的每一个“神经元”都会对其全部输入进行加权和。添加一个称为“偏差”的常量,然后通过一些非线性激活函数来提取结果。

    在这里,我们设计了一个具有10个神经元的1层神经网络,作为输出层。因为我们想将数字分为10个类(0到9)。每一个神经元都能分类处一个类。

    对于一个分类问题。一个非常好的激活函数是softmax。通过取每一个元素的指数。然后归一化向量(使用不论什么范数,比如向量的普通欧几里德长度)来对向量应用softmax。


    这里写图片描写叙述

    为什么“softmax”称为softmax?指数是急剧增长的函数。它将添加向量元素之间的差异。它也高速产生大的值。

    然后,当您规范化向量时,支配规范的最大元素将被归一化为接近1的值,而全部其它元素将终于除以一个较大的值,并归一化为接近零的值。清楚地显示出哪个是最大的元素。即“最大值”,但保留其价值的原始相对顺序。因此是“soft”。

    我们如今将使用矩阵乘法将这个单层神经元的处理过程。用一个简单的公式表示。让我们直接用100张手写图片作为输入(如图中黑灰方块图所看到的,每行表示一张图片的784个像素值)。产生100个预測(10个向量)作为输出。

    这里写图片描写叙述

    使用加权矩阵W中的第一列加权。我们计算第一张图像的全部像素的加权和。这个和值相应于第一个神经元。

    使用第二列权重,我们对第二个神经元做同样的事情,直到第10个神经元。然后。我们能够反复对剩余99张图像的操作。假设我们称X为包括我们100个图像的矩阵。则在100个图像上计算的我们10个神经元的全部加权和仅仅是XW(矩阵乘法)。

    每一个神经元如今必须加上它的偏差(一个常数)。

    因为我们有10个神经元。我们有10个偏置常数。我们将这个10个值的向量称为b。必须将其加入到先前计算的矩阵的每一行。使用一些名为“广播(broadcasting)”的方法,我们用简单的加号写下来。

    “ 广播(broadcasting) ”是Python和numpy的标准技巧,它是科学计算库里的内容。它扩展了正常操作对具有不兼容尺寸的矩阵的作用范围。“广播加入”是指“假设要相加两个矩阵,可是因为其尺寸不兼容,请尝试依据须要复制小尺寸以使其能相加。”

    我们最后应用softmax激活函数,得到描写叙述1层神经网络的公式,应用于100幅图像:
    这里写图片描写叙述

    顺便说一下,什么是“ 张量(tensor) ”?
    “张量(tensor)”就像一个矩阵,可是具有随意数量的维度。

    一维张量是向量。二维张量是矩阵。然后。您能够有3,4,5或很多其它维度的张量。

    5. 理论:梯度下降

    如今我们的神经网络产生了输入图像的预測,我们须要測量它们的好坏,即网络告诉我们与我们所知道的真相之间的距离。请记住。我们为此数据集中的全部图像的数字都有正确数字的标签。

    不论什么距离都会有效。普通的欧几里得距离非常好,可是对于分类问题,一个距离,称为“交叉熵(cross-entropy)”更有效率。


    这里写图片描写叙述

    “ 一热(One-hot) ”编码意味着您使用10个值的矢量代表标签“6”,全部为零,但第6个值为1.这是因为格式非常相似于我们的神经网络输出预測,也作为10个值的向量。

    “训练”神经网络实际上意味着使用训练图像和标签来调整权重和偏差,以便最小化交叉熵损失函数。

    下面是它的工作原理。

    交叉熵是训练图像的权重,偏差。像素及其已知标签的函数。

    假设我们相对于全部权重和全部偏差计算交叉熵的偏导数,我们获得了对于给定图像,权重和偏差的标签和现值计算的“梯度(gradient)”。记住,我们有7850个权重和偏差,所以计算梯度听起来好像有非常多工作。

    幸运的是,TensorFlow将为我们做好准备。

    梯度的数学属性是它指向“上”。因为我们想要走交叉熵低的地方。所以我们走向相反的方向。

    我们将权重和偏差更新一小部分梯度,并使用下一批训练图像再次运行同样的操作。

    希望这让我们到达交叉熵最小的坑底。
    这里写图片描写叙述

    在该图中。交叉熵表示为2个权重的函数。实际上还有很多其它的。

    梯度下降算法遵循最高速下降到局部最小值的路径。训练图像也会在每次迭代中更改,以便我们收敛到适用于全部图像的局部最小值。

    “ 学习率”:您无法在每次迭代时以渐变的整个长度更新您的权重和偏差。这就好比是一个穿着靴子的人,想去一个山谷的底部。他会从山谷的一边跳到还有一边。

    要进入底部,他须要运行较小的步骤,即仅使用渐变的一小部分。通常在1/1000。我们将这个分数称为“学习率”。

    总而言之,训练循环例如以下所看到的:

    训练数据和标签 => 求损失函数=> 求梯度 (偏导数) => 最快下降 => 更新权重和偏差 => 反复下一个小批量的图像数据和标签

    为什么要使用100个图像和标签,用这样的“ 小批量 ”形式进行?

    您仅仅需一个演示样例图像就可以计算您的渐变,并马上更新权重和偏差(在文献中称为“随机梯度下降”)。这样做100个样例给出了更好地表示不同演示样例图像所施加的约束的渐变。因此可能更快地收敛到解决方式。小批量的尺寸是可调參数。

    还有还有一个更技术的原因:使用大批量也意味着使用更大的矩阵,这些通常更easy在GPU上进行优化。

    常常问的问题


    为什么交叉熵能正确的用于分类问题?

    6. 实验室:让我们跳入代码

    已经写了1层神经网络的代码。请打开mnist_1.0_softmax.py文件并依照说明进行操作。

    您在本节中的任务是了解此起始代码。以便以后能够改进。

    您应该看到文件里的说明和代码之间仅仅有微小的差别。

    它们相应于用于可视化的功能,并在凝视中做了说明。你能够忽略它们。

    mnist_1.0_softmax.py

    import tensorflow as tf
    
    X = tf.placeholder(tf.float32, [None, 28, 28, 1])
    W = tf.Variable(tf.zeros([784, 10]))
    b = tf.Variable(tf.zeros([10]))
    
    init = tf.initialize_all_variables()

    首先我们定义TensorFlow变量和占位符。变量是您希望训练算法为您确定的全部參数。在我们的情况下。我们的权重和偏见。

    占位符是在训练期间填充实际数据的參数。一般是训练图像。保持训练图像的张量的形状是[None,28,28,1]。代表:

    • 28,28,1:我们的图像是每像素28x28像素x 1值(灰度)。

      彩色图像的最后一个数字将为3,这里并不须要。

    • None:此维度将是迷你批次中的图像数量。

      这将在训练时知道。

    mnist_1.0_softmax.py

    # model
    Y = tf.nn.softmax(tf.matmul(tf.reshape(X, [-1, 784]), W) + b)
    # placeholder for correct labels
    Y_ = tf.placeholder(tf.float32, [None, 10])
    
    # loss function
    cross_entropy = -tf.reduce_sum(Y_ * tf.log(Y))
    
    # % of correct answers found in batch
    is_correct = tf.equal(tf.argmax(Y,1), tf.argmax(Y_,1))
    accuracy = tf.reduce_mean(tf.cast(is_correct, tf.float32))

    第一行是我们的1层神经网络的模型。公式是我们在曾经的理论部分中建立的公式。该tf.reshape命令将我们的28x28图像转换为784像素的单个向量。重塑命令中的“-1”表示“计算机。计算出来,仅仅有一种可能性”。实际上。这将是一个小批量的图像数量。

    然后。我们须要一个附加的占位符。用于提供与培训图像一起的标签数据。

    如今。我们有模型预測和正确的标签。所以我们能够计算交叉熵。tf.reduce_sum总和一个向量的全部元素。

    最后两行计算正确识别的数字的百分比。留给读者使用TensorFlow API參考书,以供读者理解。你也能够跳过它们。

    mnist_1.0_softmax.py

    optimizer = tf.train.GradientDescentOptimizer(0.003)
    train_step = optimizer.minimize(cross_entropy)

    这里将是TensorFlow展示它能力的时候了。您选择一个优化器(有非常多可用)。并要求它最小化交叉熵损失。在此步骤中。TensorFlow计算相对于全部权重和全部偏差(梯度)的损失函数的偏导数。这是一个正式的推导,而不是一个数字化的,太费时间了。

    然后使用梯度来更新权重和偏差。

    0.003是学习率。

    最后,如今是运行训练循环的时候了。到眼下为止,全部的TensorFlow指令都已经在内存中准备了一个计算图,但还没有计算出来。

    TensorFlow的“延迟运行”模型:TensorFlow是为分布式计算构建的。

    在開始实际将计算任务发送到各种计算机之前。必须知道要计算的内容,即运行图。这就是为什么它有一个延迟运行模型,您首先使用TensorFlow函数在内存中创建计算图。然后開始Session运行并使用实际的计算Session.run。在这一点上,计算图不能再改变了。

    因为该模式,TensorFlow能够接管大量的分布式计算流。

    比如。假设您指示在计算机1上运行一部分计算。并在计算机2上运行还有一部分,则能够自己主动进行必要的传输数据。

    计算须要将实际数据输入到您在TensorFlow代码中定义的占位符。这是以Python字典的形式提供的,当中的键值是占位符的名称。

    mnist_1.0_softmax.py

    sess = tf.Session()
    sess.run(init)
    
    for i in range(1000):
        # load batch of images and correct answers
        batch_X, batch_Y = mnist.train.next_batch(100)
        train_data={X: batch_X, Y_: batch_Y}
    
        # train
        sess.run(train_step, feed_dict=train_data)

    在train_step当我们问到TensorFlow出最小交叉熵是这里运行获得。那就是计算梯度并更新权重和偏差的步骤。

    最后,我们还须要计算一些能够显示的值,以便我们能够跟踪我们模型的性能。

    在训练循环中使用该代码训练数据计算精度和交叉熵(比如每10次迭代):

    # success ?
    a,c = sess.run([accuracy, cross_entropy], feed_dict=train_data)

    通过提供測试训练数据,能够在測试数据上计算同样的数值(比如。每100次反复一次,有10,000个測试数字。因此须要一些CPU时间):

    # success on test data ?
    test_data={X: mnist.test.images, Y_: mnist.test.labels}
    a,c = sess.run([accuracy, cross_entropy], feed=test_data)

    TensorFlow和NumPy的是朋友:准备计算图时,你仅仅有操纵TensorFlow张量和如命令tf.matmul,tf.reshape等等。

    然而。一旦运行Session.run命令。它返回的值就是Numpy张量,即Numpy numpy.ndarray能够使用的对象以及基于它的全部科学comptation库。

    这就是使用matplotlib(这是基于Numpy的标准Python画图库)为这个实验室建立的实时可视化。
    这里写图片描写叙述

    7. 实验室:加入图层

    这里写图片描写叙述
    为了提高识别精度,我们将为神经网络加入很多其它层数。

    第二层中的神经元,而不是计算像素的加权和,将计算来自上一层的神经元输出的加权和。这里是一个5层全然连接的神经网络:
    这里写图片描写叙述

    我们保持softmax作为最后一层的激活功能。因为这是最适合分类的。

    在中间层上。我们将使用最经典的激活函数:sigmoid:

    这里写图片描写叙述

    您在本节中的任务是将一个或两个中间层加入到您的模型中以提高其性能。

    解决方式能够在文件里找到mnist_2.0_five_layers_sigmoid.py

    使用它,假设你不能写出来,被卡住了。

    要加入图层。您须要一个额外的权重矩阵和中间层的附加偏置向量:

    W1 = tf.Variable(tf.truncated_normal([28*28, 200] ,stddev=0.1))
    B1 = tf.Variable(tf.zeros([200]))
    
    W2 = tf.Variable(tf.truncated_normal([200, 10], stddev=0.1))
    B2 = tf.Variable(tf.zeros([10]))

    权重矩阵的形状是[N。M]。当中N是层的输入数量和M的输出。在上面的代码中,我们在中间层中使用了200个神经元,在最后一层使用了10个神经元。

    提示:当你深入时,重要的是用随机值初始化权重。假设没有,优化器可能会停留在初始位置。tf.truncated_normal是一个TensorFlow函数,它产生遵循-2* stddev和+ 2 * stddev之间的正态(高斯)分布的随机值。

    如今将1层模型更改为2层模型:

    XX = tf.reshape(X, [-1, 28*28])
    
    Y1 = tf.nn.sigmoid(tf.matmul(XX, W1) + B1)
    Y  = tf.nn.softmax(tf.matmul(Y1, W2) + B2)

    您如今应该能够使用2个中间层(比如200和100个神经元)将精度推送到97%以上的精度。


    这里写图片描写叙述

    8. 实验室:深度网络的特别照应

    这里写图片描写叙述
    随着层次的添加。神经网络趋向于收敛很多其它困难。但我们今天知道怎样使他们的工作。例如以下图。假设您看到这样的精度曲线。本节将对您有所帮助:
    这里写图片描写叙述

    Relu激活功能
    在深层网络中,S形激活函数(sigmoid函数)实际上是相当有问题的。

    它压缩0和1之间的全部值,当您反复进行时。神经元输出及其渐变能够全然消失。改进的方法,能够使用例如以下所看到的的RELU函数(整流线性单元):

    这里写图片描写叙述

    更新1/4:如今用RELU替换全部的S型,而且在加入图层时,您将获得更快的初始收敛,避免出现故障。

    仅仅需在你的代码中简单更换tf.nn.sigmoid用tf.nn.relu。

    一个更好的优化器
    在这样的非常高的维度空间中。我们有10K的权重和偏差 - “鞍点”是频繁的。这些是不是局部最小值的点,但梯度仍然为零。梯度下降优化器仍然停留在那里。

    TensorFlow拥有一系列可用的优化器,当中包括一些能够使用一定惯量的优化器。并能够安全避开鞍点。

    更新2/4:替换tf.train.GradientDescentOptimiser为tf.train.AdamOptimizer如今。

    随机初始化

    精确度仍然在0.1?你用随机值初始化了你的权重吗?对于偏差,当使用RELU时,最佳做法是将其初始化为小的正值,以使神经元最初在RELU的非零范围内运行。

    W = tf.Variable(tf.truncated_normal([K, L] ,stddev=0.1))
    B = tf.Variable(tf.ones([L])/10)

    更新3/4:如今检查全部的权重和偏差是否适当初始化。如上图所看到的的0.1将作为初始偏差。

    NaN ?

    ??


    这里写图片描写叙述

    假设您看到精确度曲线崩溃。而且控制台输出NaN作为交叉熵,请不要惊慌。您正在尝试计算一个不是数(NaN)的值(0)。请记住。交叉熵涉及在softmax层的输出上计算的日志。因为softmax本质上是一个指数,从不为零。所以我们应该非常好。但使用32位精度浮点运算,exp(-100)已经是一个真正的零。

    说白了就是,小数点后0太多,超出计算机精度。计算机将其推断为0,并作了分母,然后就出现这样的现象。

    幸运的是,TensorFlow具有一个方便的功能,能够在数字稳定的方式下实现单步骤中的softmax和交叉熵。要使用它。您须要在应用softmax之前,将最后一层的原始加权和加上偏差取对数(logits)。

    假设您的模型的最后一行是:

    Y = tf.nn.softmax(tf.matmul(Y4, W5) + B5)

    您须要更换它:

    Ylogits = tf.matmul(Y4, W5) + B5
    Y = tf.nn.softmax(Ylogits)

    如今,您能够以安全的方式计算交叉熵:

    cross_entropy = tf.nn.softmax_cross_entropy_with_logits(Ylogits, Y_)

    还加入这条线,使測试和训练交叉熵达到同样的显示尺度:

    cross_entropy = tf.reduce_mean(cross_entropy)*100

    更新4/4:请加入tf.nn.softmax_cross_entropy_with_logits到您的代码。您也能够跳过此步骤,当您在输出中实际看到NaN时,能够回到该步骤。

    你如今准备好深入

    9. 实验:学习率衰减

    这里写图片描写叙述
    使用两个,三个或四个中间层,假设将迭代推送到5000或更高,您如今能够获得接近98%的准确性。可是你会看到结果不是非常一致。

    这里写图片描写叙述
    这些曲线真的非常嘈杂,看看測试的准确性:它全部上下跳跃。这意味着即使学习率为0.003,我们也走得太快了。可是,我们不能将学习率除以十,否则训练将永远存在。良好的解决方式是開始高速。并将学习速率以指数方式衰减为0.0001。

    这一点变化的影响是壮观的。您能够看到大部分噪音已经消失,測试精度如今高达98%以上

    这里写图片描写叙述
    还要看训练精度曲线。如今已经达到了几个纪元的100%(1个纪元= 500次迭代=训练了全部的训练图像一次)。

    第一次,我们能够学习完美地识别训练图像。

    请加入学习率衰减到你的代码。

    为了在每次迭代时将不同的学习率传递给AdamOptimizer,您将须要定义一个新的占位符,并在每次迭代时向它提供一个新的值feed_dict。

    下面是指数衰减的公式: lr = lrmin+(lrmax-lrmin)*exp(-i/2000)

    解决方式能够在文件里找到mnist_2.1_five_layers_relu_lrdecay.py

    这里写图片描写叙述

    10. 实验室:丢失信息。过度配合

    这里写图片描写叙述
    您将注意到,測试和训练数据的交叉熵曲线在数千次迭代后開始断开连接。学习算法仅用于训练数据。并相应地优化训练交叉熵。

    它从来没有看到測试数据。所以毫不奇怪。一段时间后,它的工作不再对測试交叉熵产生影响,測试交叉熵停止下降,有时甚至反弹。


    这里写图片描写叙述
    这不会马上影响您的模型的真实识别能力,但它将阻止您运行很多迭代。而且一般是训练不再具有积极作用的迹象。

    这个断开连接通常被标记为“过度拟合”,当您看到它时,您能够尝试应用称为“丢失信息”的正则化技术。
    这里写图片描写叙述
    在丢失数据期间,在每次训练迭代中,您从网络中丢弃随机神经元。

    您选择pkeep保留神经元的概率,通常在50%至75%之间,然后在训练循环的每次迭代中,随机移除全部权重和偏差的神经元。不同的神经元将在每次迭代中被丢弃(而且您还须要按比例提升剩余神经元的输出,以确保下一层的激活不会移动)。当您測试网络的性能时,您将全部神经元都放回(pkeep=1)。

    TensorFlow提供了一个用于神经元层输出的压差函数。

    它随机排除一些输出,并将其余的输出提高1 / pkeep。下面是您怎样在两层网络中使用它:

    # feed in 1 when testing, 0.75 when training
    pkeep = tf.placeholder(tf.float32)
    
    Y1 = tf.nn.relu(tf.matmul(X, W1) + B1)
    Y1d = tf.nn.dropout(Y1, pkeep)
    
    Y = tf.nn.softmax(tf.matmul(Y1d, W2) + B2)

    您能够在网络中的每一个中间层之后加入丢失数据(dropout)。这是实验室的可选步骤。

    解决方式能够在文件里找到mnist_2.2_five_layers_relu_lrdecay_dropout.py

    这里写图片描写叙述
    您应该看到,測试损失在非常大程度上被控制。噪音又一次出现,但在这样的情况下,至少測试精度保持不变,这是有点令人失望。

    这里出现“过度配合”的还有一个原因。

    在我们继续之前,总结一下我们迄今为止所尝试的全部工具:
    这里写图片描写叙述
    不管我们做什么。我们似乎无法以显著的方式打破98%的障碍。我们的损失曲线仍然表现出“过拟合”的问题。

    什么是真正的“过拟合”?当一个神经网络学习“不好”时,过拟合就会发生,这样的方式对于训练样例起作用,但对于现实世界的数据却不太好。有正规化技术。如丢失数据(dropout),能够强制它以更好的方式学习,但过拟合也有更深的根源。
    这里写图片描写叙述
    当神经网络对于手头的问题具有太多的自由度时。会发生主要的过拟合。想象一下,我们有这么多神经元,网络能够存储我们全部的训练图像,然后通过模式匹配识别它们。它将全然失真在真实世界的数据。一个神经网络必须有一定的约束。

    假设你有非常少的培训数据,即使一个小的网络也能够完毕学习。一般来说,你总是须要大量的数据来训练神经网络。

    最后。假设你做的一切都非常好。尝试不同大小的网络,以确保其自由度受到限制。应用丢失数据(dropout)。并训练大量的数据,你可能仍然被困在一个性能水平,似乎没有什么能够提高。这意味着您的神经网络眼下的形状不能从您的数据中提取很多其它的信息。就像我们在这里一样。

    记住我们怎样使用手写图像,将全部像素平坦化为单个向量?那是一个非常糟糕的主意 手写数字由形状组成。当我们平铺像素时。我们舍弃了形状信息。

    然而,有一种类型的神经网络能够利用形状信息:卷积网络。

    让我们试试看吧。

    11. 理论:卷积网络

    这里写图片描写叙述
    在卷积网络的层中,一个“神经元”仅在图像的小区域上进行恰好在其上方的像素的加权和。然后,通过加入偏置并通过其激活功能馈送结果来正常地起作用。最大的差别是每一个神经元都会反复使用同样的权重,而在之前看到的全然连接的网络中,每一个神经元都有自己的权重集。

    在上面的动画中,您能够看到,通过在两个方向(卷积)上滑过图像的权重块,您能够获得与图像中的像素一样多的输出值(虽然边缘须要一些填充)。

    要使用4x4的补丁大小和彩色图像作为输入生成一个输出值平面,如动画中那样。我们须要4x4x3 = 48的权重。

    这还不够 为了添加很多其它的自由度。我们用不同的权重反复同样的事情。
    这里写图片描写叙述
    通过向张量加入维度,能够将两个(或多个)权重组重写为一个,这给出了卷积层的权重张量的通用形状。因为输入和输出通道的数量是參数,我们能够開始堆叠和链接卷积层。
    这里写图片描写叙述
    最后一个问题仍然存在。我们仍然须要将信息调低。在最后一层,我们仍然仅仅须要10个神经元来取代我们的10个数字。传统上。这是通过“最大池”层完毕的。即使今天有更简单的方法,“最大池(max-pooling)”有助于直观地了解卷积网络的运行情况:假设您假设在训练过程中,我们的小块权重会演变成过滤器,能够识别基本形状(水平和垂直线,曲线,……)然后一种将实用信息向下传递的方式是通过层数保持最大强度识别形状的输出。

    实际上。在最大池层中,神经元输出以2x2为一组进行处理,仅仅保留最多一个。

    有一种更简单的方法:假设您以2像素而不是1像素的速度滑过图像。则还会获得较少的输出值。这样的方法已被证明是同样有效的,而今天的卷积网络仅使用卷积层。

    这里写图片描写叙述
    让我们建立一个手写数字识别的卷积网络。我们将在顶部使用三个卷积层,我们的传统softmax读出层在底部,并连接到一个全然连接的层:
    这里写图片描写叙述
    请注意。第二和第三卷积层有两个步长,这说明为什么它们将输出值从28x28减少到14x14,然后是7x7。

    完毕这些层的大小,使得神经元的数量在每一层大致下降2倍:28x28x4≈3000→14x14x8≈1500→7x7x12≈500→200.跳转到下一节运行。

    12. 实验室:卷积网络

    这里写图片描写叙述
    要将我们的代码切换到卷积模型,我们须要为卷积层定义适当的权重张量,然后将卷积图层加入到模型中。

    我们已经看到卷积层须要下面形状的权重张量。

    这是初始化的TensorFlow语法:
    这里写图片描写叙述

    W = tf.Variable(tf.truncated_normal([4, 4, 3, 2], stddev=0.1))
    B = tf.Variable(tf.ones([2])/10) # 2 is the number of output channels

    能够tf.nn.conv2d使用使用提供的权重在两个方向上运行输入图像的扫描的功能在TensorFlow中实现卷积层。这仅仅是神经元的加权和部分。您仍然须要加入偏差并通过激活功能提供结果。

    stride = 1  # output is still 28x28
    Ycnv = tf.nn.conv2d(X, W, strides=[1, stride, stride, 1], padding='SAME')
    Y = tf.nn.relu(Ycnv + B)

    不要太多地关注跨步的复杂语法。

    查看文档的完整具体信息。在这里工作的填充策略是从图像的两边复制像素。

    全部数字都在统一的背景上,所以这仅仅是扩展了背景,不应该加入不论什么不须要的形状。

    轮到你玩了,改动你的模型。把它变成一个卷积模型。

    您能够使用上图中的值来对其进行调整。

    你能够保持你的学习速度衰减,可是如今请删除丢失信息(dropout)。

    解决方式能够在文件里找到mnist_3.0_convolutional.py

    您的模型应该能够轻松地打破98%的屏障。看看測试交叉熵曲线。你是不是能马上想到解决方式呢?
    这里写图片描写叙述

    13. 实验室:99%的挑战

    调整神经网络的一个非常好的方法是实现一个有点太限制的网络,然后给它一个很多其它的自由度。并加入丢失信息(dropout),以确保它不是过拟合。这样终于能够为您的问题提供一个相当理想的神经网络。

    这里比如。我们在第一个卷积层中仅仅使用了4个像素。假设您接受这些权重补丁在训练过程中演变成形状识别器。您能够直观地看到这可能不足以解决我们的问题。手写数字是超过4个像素形状的模式。

    所以让我们略微添加像素大小,将卷积层中的补丁数量从4,8,12提高到6,12,24,然后在全然连接的层上加入dropout。为什么不在卷积层上?他们的神经元反复使用同样的权重。所以通过在一次训练迭代纪元,冻结一些权重有效地起作用的dropout将不起作用。


    这里写图片描写叙述

    去吧。打破99%的限制。添加像素大小和通道数,如上图所看到的。并在卷积层上加入dropout。

    解决方式能够在文件里找到mnist_3.1_convolutional_bigger_dropout.py

    这里写图片描写叙述
    上图所看到的的模型仅识别错了10,000个測试数字中的72个。

    在MNIST站点上能够找到的世界纪录约为99.7%。

    我们距离我们的模型建立了100行Python / TensorFlow距离世界纪录就差0.4个百分点。

    要完毕,这是对我们更大的卷积网络的差异。

    给神经网络添加自由度,将终于精确度从98.9%提高到99.1%。添加dropout不仅驯服了測试损失,而且使我们能够安全地航行99%以上。甚至达到99.3%
    这里写图片描写叙述

    14. 恭喜!

    您已经建立了您的第一个神经网络。并一直训练到99%的准确性。沿途学到的技术并不特定于MNIST数据集,实际上它们在使用神经网络时被广泛使用。

    作为一个分手的礼物,这里是实验室的“悬崖笔记”卡。卡通版本号。你能够用它回顾起你学到的东西:
    这里写图片描写叙述

    下一步
    在全然连接和卷积网络之后,您应该看看循环神经网络


    在本教程中,您已经学习了怎样在矩阵级构建Tensorflow模型。Tensorflow具有更高级的API,也称为tf.learn


    要在分布式基础架构上在云中运行培训或推理,我们提供Cloud ML服务。
    最后,我们喜欢反馈。请告诉我们。假设您在本实验室看到某些东西,或者您觉得应该改进的话。我们通过GitHub问题处理反馈[ 反馈链接 ]。


    这里写图片描写叙述
    The author: Martin Görner
    Twitter: @martin_gorner
    Google +: plus.google.com/+MartinGorner

    这里写图片描写叙述
    www.tensorflow.org

  • 相关阅读:
    px和rem换算
    使用Android Studio创建Android项目
    Hopscotch
    AtCoder Grand Contest 010 --C:Cleaning
    Hello world!
    概率生成函数
    FFT 学习笔记
    扩展中国剩余定理(excrt)
    组合恒等式
    常见数列
  • 原文地址:https://www.cnblogs.com/brucemengbm/p/7287150.html
Copyright © 2011-2022 走看看