zoukankan      html  css  js  c++  java
  • 《python深度学习》笔记---9.1、深度学习知识回顾

    《python深度学习》笔记---9.1、深度学习知识回顾

    一、总结

    一句话总结:

    【深度学习可能在几年的时间里被夸大炒作,但从长远来看,它仍然是一场改变我们经济和生活的重大革命】:炒作很可能会烟消云散,但深度学习带来的持久经济影响和技术影响将会永远持续 下去。从这个意义上来讲,深度学习与互联网很类似:它可能在几年的时间里被夸大炒作,但 从长远来看,它仍然是一场改变我们经济和生活的重大革命。
    【深度学习以一己之力引发了第三次人工智能夏天】:深度学习取得了前所未有的技术上的成功,以一己之力引发了第三次人工智能夏天(AI summer),这也是迄今为止规模最大的一次,人们对人工智能领域表现出强烈的兴趣,投入大 量投资并大肆炒作。

    1、人工智能、机器学习、深度学习 概念?

    【人工智能:将认知过程自动化的所有尝试】:人工智能(artificial intelligence)是一个古老而宽泛的领域,通常可将其定义为“将认知过程自动化的所有尝试”, 换句话说,就是思想的自动化。它的范围非常广泛,既包括很基本的内容,比如 Excel 电子表格, 也包括非常高级的内容,比如会走路和说话的人形机器人。
    【机器学习:仅靠观察训练数据来自动开发程序】:机器学习(machine learning)是人工智能的一个特殊子领域,其目标是仅靠观察训练数据 来自动开发程序[即模型(model)]。将数据转换为程序的这个过程叫作学习(learning)。
    【深度学习:一长串几何函数,一个接一个地作用在数据上】:深度学习(deep learning)是机器学习的众多分支之一,它的模型是一长串几何函数,一个 接一个地作用在数据上。这些运算被组织成模块,叫作层(layer)。深度学习模型通常都是层的 堆叠,或者更通俗地说,是层组成的图。这些层由权重(weight)来参数化,权重是在训练过 程中需要学习的参数。模型的知识(knowledge)保存在它的权重中,学习的过程就是为这些权 重找到正确的值。

    2、深度学习以一己之力引发了第三次人工智能夏天?

    【深度学习以一己之力引发了第三次人工智能夏天】:深度学习取得了前所未有的技术上的成功,以一己之力引发了第三次人工智能夏天(AI summer),这也是迄今为止规模最大的一次,人们对人工智能领域表现出强烈的兴趣,投入大 量投资并大肆炒作。
    【深度学习已经为许多大型科技公司提供了巨大的商业价值】:并且实现了人类水平的语音识别、智 能助理、人类水平的图像分类、极大改进的机器翻译,等等,这与之前的人工智能夏天形成了 鲜明对比。
    【深度学习可能在几年的时间里被夸大炒作,但从长远来看,它仍然是一场改变我们经济和生活的重大革命】:炒作很可能会烟消云散,但深度学习带来的持久经济影响和技术影响将会永远持续 下去。从这个意义上来讲,深度学习与互联网很类似:它可能在几年的时间里被夸大炒作,但 从长远来看,它仍然是一场改变我们经济和生活的重大革命。
    【将深度学习部署到可能应用的所有领域需要超过十年的时间】:深度学习就是一场革命,目前正以惊人的速度快速发展,这得益于在资源和人力上的指数式投资。从立场来看,未来很光明,尽管短期期望有些过于乐观。将深度学习部署到可能应用的所有领域需要超过十年的时间。

    3、如何看待深度学习?

    【深度学习非常非常简单】:关于深度学习,最令人惊讶的是它非常简单。十年前没人能预料到,通过梯度下降来训练 简单的参数化模型,就能够在机器感知问题上取得如此惊人的结果。现在事实证明,你需要的 只是足够大的参数化模型,并且在足够多的样本上用梯度下降来训练。
    【它并不复杂,只是很多而已】:正如费曼曾经对宇宙的 描述:“它并不复杂,只是很多而已。

    4、深度学习 集合解释?

    【在深度学习中,一切都是向量,即一切都是几何空间(geometric space)中的点(point)】:首先将模型输入(文本、图像等)和目标向量化(vectorize),即将其转换为初始输入向量空间和目标向量空间。
    【深度学习模型的每一层都对通过它的数据做一个简单的几何变换】:模型 中的层链共同形成了一个非常复杂的几何变换,它可以分解为一系列简单的几何变换。
    【这个复杂变换试图将输入空间映射到目标空间,每次映射一个点】:这个变换由层的权重来参数化, 权重根据模型当前表现进行迭代更新。
    【可微:连续且平滑】:这种几何变换有一个关键性质,就是它必须是可微的 (differentiable),这样我们才能通过梯度下降来学习其参数。直观上来看,这意味着从输入到输 出的几何变形必须是平滑且连续的,这是一个很重要的约束条件。

    5、深度学习的神奇之处?

    【将意义转换为向量,转换为几何空间】:然后逐步学习将一个 空间映射到另一个空间的复杂几何变换。
    【维度足够大的空间】:你需要的只是维度足够大的空间,以便捕捉到原始数 据中能够找到的所有关系。

    6、深度学习核心思想?

    整件事情完全取决于一个核心思想:意义来自于事物之间的成对关系(一门语言的单词之间,一张图像的像素之间等),而这些关系可以用距离函数来表示。

    7、神经网络(neural network)与神经和网络都没有关系?

    【核心在于连续的几何空间操作】:更合适的名称应该是分层表示学习(layered representations learning)或层级表示学习(hierarchical representations learning),甚至还可以叫深度可微模型(deep differentiable model)或链式几何变 换(chained geometric transform),以强调其核心在于连续的几何空间操作。

    8、深度学习发展趋势?

    【像Web技术一样,人人都需要用】:未来,深度学习不仅会被专家(研究人员、研究生与具有学习背景的工程师)使用,而且 会成为所有开发人员工具箱中的工具,就像当今的Web 技术一样。所有人都需要构建智能应用 程序——正如当今每家企业都需要一个网站,每个产品都需要智能地理解用户生成的数据。

    9、对于时序预测,训练集、测试集、验证集需要注意什么?

    对于时序预测,验证数据和测试数据的 时间都应该在训练数据之后。

    10、保留一个单独的测试集 的意义?

    【避免验证集过拟合】:调节超参数时要小心验证集过拟合,即超参数可能会过于针对验证集而优化。我们保留 一个单独的测试集,正是为了避免这个问题!

    11、输入模式与适当的网络架构之间的对应关系?

    声音数据(比如波形):一维卷积神经网络(首选)或循环神经网络。
    其他类型的序列数据:循环神经网络或一维卷积神经网络。如果数据顺序非常重要(比 如时间序列,但文本不是),那么首选循环神经网络。
    视频数据:三维卷积神经网络(如果你需要捕捉运动效果),或者帧级的二维神经网络(用 于特征提取)+ 循环神经网络或一维卷积神经网络(用于处理得到的序列)。
    立体数据:三维卷积神经网络。

    向量数据:密集连接网络(Dense 层)。
    图像数据:二维卷积神经网络。
    声音数据(比如波形):一维卷积神经网络(首选)或循环神经网络。
    文本数据:一维卷积神经网络(首选)或循环神经网络。
    时间序列数据:循环神经网络(首选)或一维卷积神经网络。
    其他类型的序列数据:循环神经网络或一维卷积神经网络。如果数据顺序非常重要(比 如时间序列,但文本不是),那么首选循环神经网络。
    视频数据:三维卷积神经网络(如果你需要捕捉运动效果),或者帧级的二维神经网络(用 于特征提取)+ 循环神经网络或一维卷积神经网络(用于处理得到的序列)。
    立体数据:三维卷积神经网络。

    12、密集连接网络 为什么叫作密集连接?

    【是因为 Dense 层的每个单元都和其他所有单元相 连接】:这种层试图映射任意两个输入特征之间的关系,它与二维卷积层不同,后者仅查看局部 关系。

    13、单标签多分类 和 多标签多分类 问题的最后一次及激活函数选择?

    【对于单标签多分类问题】:(single-label categorical classification,每个样本只有一个类别,不 会超过一个),层堆叠的最后一层是一个 Dense 层,它使用 softmax 激活,其单元个数等于类 别个数。如果目标是one-hot 编码的,那么使用 categorical_crossentropy 作为损失;如 果目标是整数,那么使用 sparse_categorical_crossentropy 作为损失。
    【对于多标签多分类问题】:(multilabel categorical classification,每个样本可以有多个类别), 层堆叠的最后一层是一个 Dense 层,它使用 sigmoid 激活,其单元个数等于类别个数,并使 用 binary_crossentropy 作为损失。目标应该是 k-hot 编码的。

    14、一维(序列)、二维(图像)、三维(立体数据)卷积的共性是什么?

    【得到的表示具有平移不变性】:这使得卷积层能够高效利用数据,并且能够高度 模块化。

    15、池化层可以对数据进行空间下采样, 这么做有两个目的?

    【降低尺寸】:随着特征数量的增大,我们需要让特征图的尺寸保持在合理范围内;
    【扩大视野】:让后面 的卷积层能够“看到”输入中更大的空间范围。

    16、卷积神经网络的基本构造?

    卷积神经网络或卷积网络是卷积层和最大池化层的堆叠。

    17、大部分(或者全部)普通卷积很可能不久后会被深度可分离卷积(depthwise separable convolution,SeparableConv2D 层)所替代,后者与前者等效,但速度更快、表示效率更高。 对于三维、二维和一维的输入来说都是如此?

    【SeparableConv2D层】:如果你从头开始构建一个新网络,那么一定要使用 深度可分离卷积。SeparableConv2D 层可直接替代 Conv2D 层,得到一个更小、更快的网络, 在任务上的表现也更好。

    18、什么时候使用循环神经网络,什么时候使用一维卷积神经网络?

    【时间平移不变性】:如果序列中的模式不具有时间平移不变性(比如时间序列数据,最近的过去比 遥远的过去更加重要),那么应该优先使用循环神经网络,而不是一维卷积神经网络。

    二、内容在总结中

    博客对应课程的视频位置:

     
    我的旨在学过的东西不再忘记(主要使用艾宾浩斯遗忘曲线算法及其它智能学习复习算法)的偏公益性质的完全免费的编程视频学习网站: fanrenyi.com;有各种前端、后端、算法、大数据、人工智能等课程。
    博主25岁,前端后端算法大数据人工智能都有兴趣。
    大家有啥都可以加博主联系方式(qq404006308,微信fan404006308)互相交流。工作、生活、心境,可以互相启迪。
    聊技术,交朋友,修心境,qq404006308,微信fan404006308
    26岁,真心找女朋友,非诚勿扰,微信fan404006308,qq404006308
    人工智能群:939687837

    作者相关推荐

  • 相关阅读:
    POJ 3672 水题......
    POJ 3279 枚举?
    STL
    241. Different Ways to Add Parentheses
    282. Expression Add Operators
    169. Majority Element
    Weekly Contest 121
    927. Three Equal Parts
    910. Smallest Range II
    921. Minimum Add to Make Parentheses Valid
  • 原文地址:https://www.cnblogs.com/Renyi-Fan/p/13829458.html
Copyright © 2011-2022 走看看