zoukankan      html  css  js  c++  java
  • 14 深度学习-卷积

    1.简述人工智能、机器学习和深度学习三者的联系与区别。

    人工智能:从概念提出到走向繁荣

    机器学习:一种实现人工智能的方法

    深度学习:一种实现机器学习的技术

    三者之间的联系:人工智能是最早出现的,也是最大、最外侧的同心圆;其次是机器学习,稍晚一点;最内侧,是深度学习,当今人工智能大爆炸的核心驱动。用一个可视化的方式会更客观一点。举例而言,如果想让机器区分一张图片中是猫还是狗,我们可以使用人工智能来解决,那么如何区分则可以使用机器学习的方法,通过对大量猫和狗的图片数据进行学习,经过算法处理生成模型,来预测一张新的图片中的动物究竟是猫还是狗。

    三者之间的区别:机器学习是一种实现人工智能的方法,深度学习是一种实现机器学习的技术。机器学习大部分算法需要人类自己寻找特征,在上述例子中,我们需要告诉机器具体从哪方面去学习图片中的动物是猫还是狗,如告诉机器可以从毛发颜色(即特征)的角度去学习,图片中的猫的毛发是白色的,图片中的狗的毛发是黄色的,机器通过这些人类告诉它的特征信息进行学习,并对新的图片中的猫和狗进行区分。而深度学习可以自动生成特征,即我们不需要告诉机器从哪些角度去学习,机器能够自己寻找角度来学习图片的信息,并对图片进行区分。但是深度学习也需要更多的数据,才能得到准确的结果。

    2. 全连接神经网络与卷积神经网络的联系与区别。

    卷积神经网络也是通过一层一层的节点组织起来的。和全连接神经网络一样,卷积神经网络中的每一个节点就是一个神经元。在全连接神经网络中,每相邻两层之间的节点都有边相连,于是会将每一层的全连接层中的节点组织成一列,这样方便显示连接结构。而对于卷积神经网络,相邻两层之间只有部分节点相连,为了展示每一层神经元的维度,一般会将每一层卷积层的节点组织成一个三维矩阵。除了结构相似,卷积神经网络的输入输出以及训练的流程和全连接神经网络也基本一致,以图像分类为列,卷积神经网络的输入层就是图像的原始图像,而输出层中的每一个节点代表了不同类别的可信度。这和全连接神经网络的输入输出是一致的。类似的,全连接神经网络的损失函数以及参数的优化过程也都适用于卷积神经网络。
    因此,全连接神经网络和卷积神经网络的唯一区别就是神经网络相邻两层的连接方式。

    3.理解卷积计算。

    以digit0为例,进行手工演算。

    from sklearn.datasets import load_digits #小数据集8*8

    digits = load_digits()

    0 0 5 13 9 1 0 0
    0 0 13 15 10 15 5 0
    0 3 15 2 0 11 8 0
    0 4 12 0 0 8 8 0
    0 5 8 0 0 9 8 0
    0 4 11 0 1 12 7 0
    0 2 14 5 10 12 0 0
    0 0 6 13 10 0 0 0

    4.理解卷积如何提取图像特征。

    读取一个图像;

    以下矩阵为卷积核进行卷积操作;

    显示卷积之后的图像,观察提取到什么特征。

    1 0 -1
    1 0 -1
    1 0 -1
    1 1 1
    0 0 0
    -1 -1 -1
    -1 -1 -1
    -1 8 -1
    -1 -1 -1

    卷积API

    scipy.signal.convolve2d

    tf.keras.layers.Conv2D

     

    from PIL import Image
    from scipy.signal import convolve2d
    import numpy as np
    import matplotlib.pyplot as plt
    import matplotlib.pyplot as plt

    # 读取一张图片
    image = Image.open(r"C:/Users/mean/PycharmProjects/untitled/123/img.jpg")
    p = image.convert("L")

    k = np.array([[-1, 0, 1], [-2, 0, 2], [-1, 0, 1]])
    k1 = np.array([[1, 0, -1], [1, 0, -1], [1, 0, -1]]) # 垂直边缘
    k2 = np.array([[1, 1, 1], [0, 0, 0], [-1, -1, -1]]) # 水平边缘
    k3 = np.array([[-1, -1, -1], [-1, 8, -1], [-1, -1, -1]])

    pkq0 = convolve2d(p, k, boundary='symm', mode='same')
    pkq1 = convolve2d(p, k1, boundary='symm', mode='same')
    pkq2 = convolve2d(p, k2, boundary='symm', mode='same')
    pkq3 = convolve2d(p, k3, boundary='symm', mode='same')

    plt.imshow(p)
    plt.title("原图片")
    plt.show() # 显示图片
    plt.imshow(pkq0)
    plt.title("pkq0图片")
    plt.show()
    plt.imshow(pkq1)
    plt.title("pkq1图片")
    plt.show()
    plt.imshow(pkq2)
    plt.title("pkq2图片")
    plt.show()
    plt.imshow(pkq3)
    plt.title("pkq3图片")
    plt.show()
    
    
    
    
    

     

    
    

     

     

    5. 安装Tensorflow,keras

    参考:https://blog.csdn.net/u011119817/article/details/88309256 

    6. 设计手写数字识别模型结构,注意数据维度的变化。

    from tensorflow.keras.models import Sequential

    from tensorflow.keras.layers import Dense, Flatten, Conv2D, MaxPool2D

    model = tf.keras.Sequential()

    model.add(Conv2D(…))

    model.add(MaxPool2D(…))

    ...

    #可以上传手动演算的每层数据结构的变化过程。model.summary() 

     

    参考:

    https://www.jianshu.com/p/afe485aa08ce

    https://blog.csdn.net/junjun150013652/article/details/82217571

     代码:

     

    
    
    
     
     

     运行结果:

  • 相关阅读:
    美赛 LaTeX 急救指南
    切比雪夫定理的证明
    【持续更新】一个简洁、易用的美赛 LaTeX 模板: easymcm
    一个形式较精细的 Strling 公式的证明
    数学分析的主线,高等数学的一切:连续函数与“有理”分析
    一个自己稍作修改了的美赛论文 LaTeX 模板
    有关几个特殊命题的证明
    实数系与实数定理(下)
    实数系与实数定理(上)
    Office365完整离线安装包下载及自定义安装教程
  • 原文地址:https://www.cnblogs.com/CMean/p/13061360.html
Copyright © 2011-2022 走看看