zoukankan      html  css  js  c++  java
  • Tensorflow--神经网络处理分类问题

    Tensorflow–神经网络处理分类问题

    一.TFRecord文件

    TFRecord是Tensorflow设计的一种存储数据的内置文件格式,可以方便高效地管理数据及这些数据的相关信息,利用它可以将数据快速加载到内存中。接下来介绍如何将数据写入TFRecord文件和从TFRecord中解析数据的过程

    1.将ndarray写入TFRecord文件

    假设有3个三维的ndarray,尺寸依次为2行3列4深度,3行3列3深度和2行2列3深度。将这3个ndarray及其对应的尺寸(高,宽,深度)写入文件名为data1.tfrecord的TFRecord文件中

    import tensorflow as tf
    import numpy as np
    
    # 创建文件
    record=tf.python_io.TFRecordWriter("dataTest1.tfrecord")
    
    # 高为2,宽为3,深度为4的三维ndarray
    array1=np.array(
        [
            [[1,2,1,2],[3,4,2,9],[5,6,0,3]],
            [[7,8,1,6],[9,6,1,7],[1,2,5,9]]
        ]
        ,np.float32
    )
    
    # 高为3,宽为3,深度为3的三维ndarray
    array2=np.array(
        [
            [[11,12,11],[13,14,12],[15,16,13]],
            [[17,18,11],[19,10,11],[11,12,15]],
            [[13,14,15],[18,11,12],[19,14,10]]
        ]
        ,np.float32
    )
    
    # 高为2,宽为2,深度为3的三维ndarray
    array3=np.array(
        [
            [[21,23,21],[23,24,22]],
            [[27,28,24],[29,20,21]]
        ]
        ,np.float32
    )
    
    # 将上述3个ndarray存入一个列表
    arrays=[array1,array2,array3]
    
    # 循环处理上述列表中的每一个ndarray
    for array in arrays:
        # 计算每一个ndarray的形状
        height,width,depth=array.shape
        # 将ndarray中的值转为字节类型
        array_raw=array.tostring()
        # ndarray的值及对应的高,宽及深度
        feature={
            'array_raw':
                tf.train.Feature(
                    bytes_list=tf.train.BytesList(value=[array_raw])
                ),
            'height':
                tf.train.Feature(int64_list=tf.train.Int64List(value=[height])),
            'width':
                tf.train.Feature(int64_list=tf.train.Int64List(value=[width])),
            'depth':
                tf.train.Feature(int64_list=tf.train.Int64List(value=[depth]))
        }
        
        features=tf.train.Features(feature=feature)
        example=tf.train.Example(features=features)
        # 字符串序列化后写入文件
        record.write(example.SerializeToString())
        
    record.close()
    

    在上述程序中,首先得到每一个ndarray的高,宽和深度,然后利用ndarray的成员函数tostring()将ndarray转换为字节类型,并将这些数据存储在tf.train.Example对象中,再利用其成员函数SerializeToString()序列化为二进制字符串,最后利用TFRecordWriter对象的成员函数Write将序列化后的二进制字符串写入TFRecord文件中

    2.从TFRecord解析数据

    首先利用函数tr.train.string_input_producer读取一个TFRecord文件列表,然后创建一个TFRecordReader对象,利用其成员函数读取TFRecord文件列表,最后利用函数tf,parse_single_example解析文件中的数据

    import tensorflow as tf
    import numpy as np
    
    # 读取tfrecord文件列表
    record_queue=tf.train.string_input_producer(['dataTest1.tfrecord'],num_epochs=2)
    
    # 创建一个TFRecordReader对象
    reader=tf.TFRecordReader()
    _,serialized_example=reader.read(record_queue)
    
    # j解析tfrecord中的数据,每次只解析一个
    features=tf.parse_single_example(
        serialized_example,
        features={
            'array_raw':tf.FixedLenFeature([],tf.string),
            'height':tf.FixedLenFeature([],tf.int64),
            'width':tf.FixedLenFeature([],tf.int64),
            'depth':tf.FixedLenFeature([],tf.int64)
        }
    )
    
    # 解析出对应的值
    array_raw=features['array_raw']
    array=tf.decode_raw(array_raw,tf.float32) # 解码
    height=features['height']
    width=features['width']
    depth=features['depth']
    
    # 创建会话
    session=tf.Session()
    session.run(tf.global_variables_initializer())
    session.run(tf.local_variables_initializer())
    coord=tf.train.Coordinator()
    threads=tf.train.start_queue_runners(sess=session,coord=coord)
    
    # 循环5次解析文件流中的数据
    for i in range(5):
        ndarray,h,w,d=session.run([array,height,width,depth])
        print("---第%(num)d次解析到的ndarray---"%{"num":i+1})
        print(ndarray)
        
    coord.request_stop()
    coord.join(threads)
    session.close()
    
    ---第1次解析到的ndarray---
    [ 1.  2.  1.  2.  3.  4.  2.  9.  5.  6.  0.  3.  7.  8.  1.  6.  9.  6.
      1.  7.  1.  2.  5.  9.]
    ---第2次解析到的ndarray---
    [ 11.  12.  11.  13.  14.  12.  15.  16.  13.  17.  18.  11.  19.  10.  11.
      11.  12.  15.  13.  14.  15.  18.  11.  12.  19.  14.  10.]
    ---第3次解析到的ndarray---
    [ 21.  23.  21.  23.  24.  22.  27.  28.  24.  29.  20.  21.]
    ---第4次解析到的ndarray---
    [ 1.  2.  1.  2.  3.  4.  2.  9.  5.  6.  0.  3.  7.  8.  1.  6.  9.  6.
      1.  7.  1.  2.  5.  9.]
    ---第5次解析到的ndarray---
    [ 11.  12.  11.  13.  14.  12.  15.  16.  13.  17.  18.  11.  19.  10.  11.
      11.  12.  15.  13.  14.  15.  18.  11.  12.  19.  14.  10.]
    

    从打印结果可以看出,解析出的每个ndarray都是一维的,这是因为在写入文件时,首先将原数据转换为字节类型。当然我们也可以根据解析到的每个ndarray对应的高,宽和深度将其转换为三维的ndarray

    import tensorflow as tf
    import numpy as np
    
    # 读取tfrecord文件列表
    record_queue=tf.train.string_input_producer(['dataTest1.tfrecord'],num_epochs=2)
    
    # 创建一个TFRecordReader对象
    reader=tf.TFRecordReader()
    _,serialized_example=reader.read(record_queue)
    
    # j解析tfrecord中的数据,每次只解析一个
    features=tf.parse_single_example(
        serialized_example,
        features={
            'array_raw':tf.FixedLenFeature([],tf.string),
            'height':tf.FixedLenFeature([],tf.int64),
            'width':tf.FixedLenFeature([],tf.int64),
            'depth':tf.FixedLenFeature([],tf.int64)
        }
    )
    
    # 解析出对应的值
    array_raw=features['array_raw']
    array=tf.decode_raw(array_raw,tf.float32) # 解码
    height=features['height']
    width=features['width']
    depth=features['depth']
    
    # 创建会话
    session=tf.Session()
    session.run(tf.global_variables_initializer())
    session.run(tf.local_variables_initializer())
    coord=tf.train.Coordinator()
    threads=tf.train.start_queue_runners(sess=session,coord=coord)
    
    # 循环5次解析文件流中的数据
    for i in range(5):
        ndarray,h,w,d=session.run([array,height,width,depth])
        ndarray=np.reshape(ndarray,[h,w,d])
        print('---第%(num)d次解析到ndarray---'%{'num':i+1})
        print(ndarray)
        
    coord.request_stop()
    coord.join(threads)
    session.close()
    
    ---第1次解析到ndarray---
    [[[ 1.  2.  1.  2.]
      [ 3.  4.  2.  9.]
      [ 5.  6.  0.  3.]]
    
     [[ 7.  8.  1.  6.]
      [ 9.  6.  1.  7.]
      [ 1.  2.  5.  9.]]]
    ---第2次解析到ndarray---
    [[[ 11.  12.  11.]
      [ 13.  14.  12.]
      [ 15.  16.  13.]]
    
     [[ 17.  18.  11.]
      [ 19.  10.  11.]
      [ 11.  12.  15.]]
    
     [[ 13.  14.  15.]
      [ 18.  11.  12.]
      [ 19.  14.  10.]]]
    ---第3次解析到ndarray---
    [[[ 21.  23.  21.]
      [ 23.  24.  22.]]
    
     [[ 27.  28.  24.]
      [ 29.  20.  21.]]]
    ---第4次解析到ndarray---
    [[[ 1.  2.  1.  2.]
      [ 3.  4.  2.  9.]
      [ 5.  6.  0.  3.]]
    
     [[ 7.  8.  1.  6.]
      [ 9.  6.  1.  7.]
      [ 1.  2.  5.  9.]]]
    ---第5次解析到ndarray---
    [[[ 11.  12.  11.]
      [ 13.  14.  12.]
      [ 15.  16.  13.]]
    
     [[ 17.  18.  11.]
      [ 19.  10.  11.]
      [ 11.  12.  15.]]
    
     [[ 13.  14.  15.]
      [ 18.  11.  12.]
      [ 19.  14.  10.]]]
    

    从TFRecord文件中随机解析数据

    假设有3个尺寸同为1行2列3深度的ndarray,写入文件名为data2.tfrecord的TFRecord文件中,因为已经知道这3个ndarray的尺寸都是1行2列3深度,所以一般只存储原数据即可,不存储其高,宽,深度等信息

    import tensorflow as tf
    import numpy as np
    
    record=tf.python_io.TFRecordWriter("dataTest2.tfrecord")
    
    array1=np.array(
        [
            [[1,2,3],[4,5,6]],
        ]
        ,np.float32
    )
    
    array2=np.array(
        [
            [[11,12,13],[14,15,16]],
        ]
        ,np.float32
    )
    
    array3=np.array(
        [
            [[21,23,21],[23,24,22]],
        ]
        ,np.float32
    )
    
    arrays=[array1,array2,array3]
    
    for array in arrays:
        array_raw=array.tostring()
        
        feature={
            'array_raw':
                tf.train.Feature(
                    bytes_list=tf.train.BytesList(value=[array_raw])
                ),
        }
        
        features=tf.train.Features(feature=feature)
        example=tf.train.Example(features=features)
        
        record.write(example.SerializeToString())
    record.close()
    
    import tensorflow as tf
    import numpy as np
    
    # 创建一个TFRecordReader对象
    epochs=2
    reader=tf.TFRecordReader()
    record_queue=tf.train.string_input_producer(['dataTest2.tfrecord'],num_epochs=epochs)
    
    _,serialized_example=reader.read(record_queue)
    
    # 解析文件中的图像及其对应的标签
    features=tf.parse_single_example(
        serialized_example,
        features={
            'array_raw':tf.FixedLenFeature([],tf.string)
        }
    )
    
    # 解码二进制数据
    array_raw=features['array_raw']
    array_raw=tf.decode_raw(array_raw,tf.float32) # 解码
    array=tf.reshape(array_raw,[1,2,3])
    
    # 每次从文件中读取2个数据
    BatchSize=2
    arrays=tf.train.shuffle_batch([array],BatchSize,1000+3*BatchSize,1000)
    
    # 创建会话
    session=tf.Session()
    session.run(tf.global_variables_initializer())
    session.run(tf.local_variables_initializer())
    coord=tf.train.Coordinator()
    threads=tf.train.start_queue_runners(sess=session,coord=coord)
    
    # 循环2次,从文件中随机读取
    for i in range(2):
        arrs=session.run([arrays])
        print('---第%(num)d次解析到ndarray---'%{'num':i+1})
        print(arrs)
        
    coord.request_stop()
    coord.join(threads)
    session.close()
    

    二.建立分类问题的数学模型

    1.数据类别

    Tensorflow通过函数one_hot实现类别的数字化

    import tensorflow as tf
    
    v=tf.one_hot([9,2,7,3,0,4,8,6,1,3,4,8,6,1],depth=10,axis=1,dtype=tf.float32)
    
    session=tf.Session()
    
    print(session.run(v))
    
    [[ 0.  0.  0.  0.  0.  0.  0.  0.  0.  1.]
     [ 0.  0.  1.  0.  0.  0.  0.  0.  0.  0.]
     [ 0.  0.  0.  0.  0.  0.  0.  1.  0.  0.]
     [ 0.  0.  0.  1.  0.  0.  0.  0.  0.  0.]
     [ 1.  0.  0.  0.  0.  0.  0.  0.  0.  0.]
     [ 0.  0.  0.  0.  1.  0.  0.  0.  0.  0.]
     [ 0.  0.  0.  0.  0.  0.  0.  0.  1.  0.]
     [ 0.  0.  0.  0.  0.  0.  1.  0.  0.  0.]
     [ 0.  1.  0.  0.  0.  0.  0.  0.  0.  0.]
     [ 0.  0.  0.  1.  0.  0.  0.  0.  0.  0.]
     [ 0.  0.  0.  0.  1.  0.  0.  0.  0.  0.]
     [ 0.  0.  0.  0.  0.  0.  0.  0.  1.  0.]
     [ 0.  0.  0.  0.  0.  0.  1.  0.  0.  0.]
     [ 0.  1.  0.  0.  0.  0.  0.  0.  0.  0.]]
    

    以上代码中,函数one_hot中的参数depth=10代表有10个类别,axis代表按照每一行存储类别的数字化,因为有10类,所以返回结果有10列

    2.图像与TFRecorder

    将ndarray写入TFRecord的方法,分别将每一个文件夹下的数字图像保存到一个TFRecord文件中,代码如下:

    import tensorflow as tf
    import os
    import matplotlib.image as mp_image
    
    N=10
    
    for label in range(N):
        record=tf.python_io.TFRecordWriter(os.path.curdir+'/data/'+'data%(label)d.tfrecord'%{'label':label})
        curDir=os.path.curdir+'/data/'+str(label)+'/'
        fileList=os.listdir(curDir)
        
        for name in fileList:
            # 图片的路径和名称
            imagePath=curDir+name
            # 读取图片,数字化为ndarray
            image=mp_image.imread(imagePath)
            # 将ndarray二进制化
            img_raw=image.tostring()
            
            feature={
                'img_raw':
                tf.train.Feature(bytes_list=tf.train.BytesList(value=[img_raw])),
                'label':
                tf.train.Feature(int64_list=tf.train.Int64List(value=[label]))
            }
            
            features=tf.train.Features(feature=feature)
            example=tf.train.Example(features=features)
            
            # 字符串序列化后写入文件
            record.write(example.SerializeToString())
            
        # 关闭文件流
        record.close()
    

    介绍如何从这10个TFRecord文件中,每次随机读取3幅图片和对应的分类标签

    import os
    import tensorflow as tf
    import matplotlib.pyplot as plt
    
    H,W=28,28
    
    files=tf.train.match_filenames_once(os.path.curdir+"/data/"+"data*.tfrecord")
    
    # 创建TFRecordReader对象
    reader=tf.TFRecordReader()
    records_queue=tf.train.string_input_producer(files,num_epochs=2)
    _,serialized_example=reader.read(records_queue)
    
    # 解析文件中的图像及其对应的标签
    features=tf.parse_single_example(
        serialized_example,
        features={
            'img_raw':tf.FixedLenFeature([],tf.string),
            'label':tf.FixedLenFeature([],tf.int64),
        }
    )
    
    # 解码二进制数据
    img_raw=features['img_raw']
    img_raw=tf.decode_raw(img_raw,tf.uint8)
    
    # 转换成图片
    img=tf.reshape(img_raw,[H,W])
    
    # 标签
    label=features['label']
    label=tf.cast(label,tf.int64)
    
    # 每次从文件中读取3张图片
    BatchSize=3
    img,label=tf.train.shuffle_batch([img,label],BatchSize,1000+3*BatchSize,1000)
    
    session=tf.Session()
    session.run(tf.global_variables_initializer())
    session.run(tf.local_variables_initializer())
    
    coord=tf.train.Coordinator()
    threads=tf.train.start_queue_runners(sess=session,coord=coord)
    print(session.run(files))
    
    # 循环2次解析文件流中的数据
    for i in range(2):
        print("---第%(num)d批图像---"%{'num':i+1})
        imgs,labels=session.run([img,label])
        
        for j in range(BatchSize):
            print("---第%(num)d批图像中的第%(index)d张:标签为%(l)d---"%{"num":i+1,"index":j+1,"l":labels[j]})
            
            plt.imshow(imgs[j,:,:])
            plt.show()
    
    coord.request_stop()
    coord.join(threads)
    session.close()
    
    [b'.\data\data0.tfrecord' b'.\data\data1.tfrecord'
     b'.\data\data2.tfrecord' b'.\data\data3.tfrecord'
     b'.\data\data4.tfrecord' b'.\data\data5.tfrecord'
     b'.\data\data6.tfrecord' b'.\data\data7.tfrecord'
     b'.\data\data8.tfrecord' b'.\data\data9.tfrecord']
    ---第1批图像---
    ---第1批图像中的第1张:标签为2---
    

    output_19_1.png

    ---第1批图像中的第2张:标签为5---
    

    output_19_3.png

    ---第1批图像中的第3张:标签为6---
    

    output_19_5.png

    ---第2批图像---
    ---第2批图像中的第1张:标签为7---
    

    output_19_7.png

    ---第2批图像中的第2张:标签为1---
    

    output_19_9.png

    ---第2批图像中的第3张:标签为3---
    

    output_19_11.png

    3.建立模型

    全连接神经网络的输入层都是一维张量,而图像是高维张量(灰色图像是二维张量,彩色图像是三维张量)。如果把图像转换为一个全连接神经网络的输入,直接将高维张量拉伸为一个一维张量即可

    import tensorflow as tf
    
    # 构建全连接神经网络
    def net(tensor):
        # 输入层,隐含层,输出层的神经元个数
        I,H1,O=784,200,10
        # 第1层的权重矩阵和偏置
        w1=tf.random_normal([I,H1],0,1,tf.float32)
        b1=tf.random_normal([H1],0,1,tf.float32)
        # 隐含层的结果,采用sigmoid激活函数
        l1=tf.matmul(tensor,w1)+b1
        sigma1=tf.nn.sigmoid(l1)
        
        # 第2层的权重矩阵和偏置
        w2=tf.random_normal([H1,O],0,1,tf.float32)
        b2=tf.random_normal([O],0,1,tf.float32)
        
        # 输出层的结果
        l2=tf.matmul(sigma1,w2)+b2
        return l2
    
    # 读取图片文件
    image=tf.read_file("0.jpg","r")
    
    # 将图片文件解码为Tensor
    image_tensor=tf.image.decode_jpeg(image)
    
    # 图像张量的形状
    length=tf.size(image_tensor) # length=28*28
    
    # 改变形状,拉伸为1个一维张量,按行存储
    t=tf.reshape(image_tensor,[1,length])
    
    # 数据类型转换,转换为float32类型
    t=tf.cast(t,tf.float32)
    
    # 标准化处理
    t=t/255.0
    
    output=net(t)
    session=tf.Session()
    
    print(session.run(output))
    
    [[-13.0977354    4.13779497   5.97057438  -7.29600286 -11.34489727
       -4.86154842  -2.60884142   0.13025093  -1.98705816  -0.21878564]]
    

    最理想的情况是经过全连接神经网络的输出结果_y(即全连接神经网络输出层的值)与人工分类的结果y相等

    三.损失函数与训练模型

    对于分类问题的损失函数,常用的是sigmoid交叉熵和softmax交叉熵

    1.sigmoid损失函数

    Tensorflow通过函数sigmoid_cross_entropy_with_logits(labels,logits,name)实现sigmoid交叉熵,其中labels代表人工分类标签,是一个N行C列的二维张量,代表N个样本的标签,每一行代表一个样本的分类标签,logits代表输出层的结果,与labels的尺寸相同,每一行代表一个样本经过全连接神经后的输出值,利用求和函数reduce_sum对函数sigmoid_cross_entropy_logits返回的结果求和,其结果为sigmoid交叉熵损失函数

    import tensorflow as tf
    
    # 输出层的值
    logits=tf.constant(
        [
            [-13.0977354,4.13779497,5.97057438,-7.29600286,-11.34489727,-4.86154842,-2.60884142,0.13025093,-1.98705816,-0.21878564]
        ]
    )
    
    # 人工分类的标签
    labels=tf.constant([[1,0,0,0,0,0,0,0,0,0]],tf.float32)
    
    # sigmoid交叉熵
    entroy=tf.nn.sigmoid_cross_entropy_with_logits(logits=logits,labels=labels)
    
    # 损失值
    loss=tf.reduce_sum(entroy)
    
    session=tf.Session()
    print(session.run(loss))
    
    24.7825
    

    2.softmax损失函数

    softmax计算原理

    Tensorflow通过函数softmax(logits,axis=None,name=None,dim=None)实现softmax处理

    import tensorflow as tf
    # 输入张量
    t=tf.constant([2,5,3],tf.float32)
    x=tf.log(t)
    # softmax处理
    s=tf.nn.softmax(x,0)
    # 创建会话
    session=tf.Session()
    
    print(session.run(s))
    
    [ 0.19999999  0.5         0.29999998]
    

    函数tf.nn.softmax可以处理多维张量

    import tensorflow as tf
    
    # 输入张量
    x=tf.constant(
        [
            [1,2,1],
            [2,2,2]
        ]
        ,tf.float32
    )
    
    # 分别对每一行(沿"1"方向)进行softmax处理
    s=tf.nn.softmax(x,1)
    
    session=tf.Session()
    
    print(session.run(s))
    
    [[ 0.21194157  0.57611692  0.21194157]
     [ 0.33333334  0.33333334  0.33333334]]
    

    softmax交叉熵及softmax损失函数

    利用Tensorflow的求和函数reduce_sum和函数tf.nn.softmax定义softmax损失函数为tf.reduce_sum(-y*tf.nn.softmax(_y,1))

    import tensorflow as tf
    
    # 假设_y为全连接神经网络的输出(输出层有3个神经元)
    _y=tf.constant(
        [
            [0,2,-3],
            [4,-5,6]
        ]
        ,tf.float32
    )
    
    # 人工分类结果
    y=tf.constant(
        [
            [1,0,0],
            [0,0,1]]
        ,tf.float32
    )
    
    # softmax熵
    _y_softmax=tf.nn.softmax(_y)
    entroy=tf.reduce_sum(-y*tf.log(_y_softmax),1)
    
    # loss损失函数
    loss=tf.reduce_sum(entroy)
    
    session=tf.Session()
    
    print(session.run(loss))
    
    2.25979
    

    以上代码实现中,使用了乘法运算符*和函数tf.nn.softmax实现softmax熵,Tensorflow将这两个运算封装成了一个函数softmax_cross_entroy_with_logits_v2,

    即tf.reduce_sum(tf.nn.softmax_cross_entropy_with_logits(logits,labels))

    import tensorflow as tf
    
    # 假设_y为全连接神经网络的输出(输出层有3个神经元)
    _y=tf.constant([[0,2,-3],[4,-5,6]],tf.float32)
    
    # 人工分类结果
    y=tf.constant([[1,0,0],[0,0,1]],tf.float32)
    
    # softmax熵
    entroy=tf.nn.softmax_cross_entropy_with_logits(logits=_y,labels=y)
    
    # loss损失函数
    loss=tf.reduce_sum(entroy)
    
    session=tf.Session()
    
    print(session.run(loss))
    
    2.25979
    

    3.训练和评估模型

    直到现在我们已经掌握了:

    1.从TFRecord中解析数据

    2.构建全连接神经网络

    3.构造损失函数

    4.梯度下降法

    import tensorflow as tf
    import os
    
    # 占位符
    x=tf.placeholder(tf.float32,[None,28*28])
    labels=tf.placeholder(tf.float32,[None,10])
    
    # 第1步:解析数据
    nums=33 # 所有训练样本的个数
    
    # 得到文件夹./data/下的所有tfrecord文件
    files=tf.train.match_filenames_once(os.path.curdir+"/data/"+"data*.tfrecord")
    
    # 创建TFRecordReader对象
    num_epochs=1000
    reader=tf.TFRecordReader()
    records_queue=tf.train.string_input_producer(files,num_epochs=num_epochs)
    _,serialized_example=reader.read(records_queue)
    
    # 解析文件中的图像及其对应的标签
    features=tf.parse_single_example(
            serialized_example,
            features={
                    'img_raw':tf.FixedLenFeature([],tf.string),
                    'label':tf.FixedLenFeature([],tf.int64),
                    }
                                     )
    
    
    # 解码二进制数据
    img_raw=features['img_raw']
    img_raw=tf.decode_raw(img_raw,tf.uint8)
    img=tf.reshape(img_raw,[28*28])
    img=tf.cast(img,tf.float32)
    img=img/255.0
    
    # 标签
    label=features['label']
    label=tf.cast(label,tf.int64)
    label_onehot=tf.one_hot(label,10,dtype=tf.float32)
    
    # 每次从文件中读取3张图片
    BatchSize =3
    imgs,labels_onehot=tf.train.shuffle_batch([img,label_onehot],BatchSize,1000+3*BatchSize,1000)
    
    
    # 第2步:构建全连接神经网络
    # 输入层,隐含层,输出层的神经元个数
    I,H1,O=784,200,10
    
    # 输入层到隐含层的权重矩阵和偏置
    w1=tf.Variable(tf.random_normal([I,H1],0,1,tf.float32),dtype=tf.float32,name='w1')
    b1=tf.Variable(tf.random_normal([H1],0,1,tf.float32),dtype=tf.float32,name='b1')
    
    # 隐含层的结果,采用sigmoid激活函数
    l1=tf.matmul(x,w1)+b1
    sigma1=tf.nn.sigmoid(l1)
    
    # 第2层的权重及偏置
    w2=tf.Variable(tf.random_normal([H1,O],0,1,tf.float32),dtype=tf.float32,name='w2')
    b2=tf.Variable(tf.random_normal([O],0,1,tf.float32),dtype=tf.float32,name='b2')
    
    # 输出层的结果
    logits=tf.matmul(sigma1,w2)+b2
    
    # 第3步:构造损失函数
    loss=tf.reduce_sum(tf.nn.softmax_cross_entropy_with_logits(labels=labels_onehot,logits=logits))
    
    # 第4步:梯度下降
    opti=tf.train.AdamOptimizer(0.001,0.9,0.999,1e-8).minimize(loss)
    
    session=tf.Session()
    session.run(tf.global_variables_initializer())
    session.run(tf.local_variables_initializer())
    
    coord=tf.train.Coordinator()
    threads=tf.train.start_queue_runners(sess=session,coord=coord)
    
    for i in range(num_epochs):
        for n in range(int(nums/BatchSize)):
            imgs_arr,lables_onehot_arr=session.run([imgs,labels_onehot])
            session.run(opti,feed_dict={x:imgs_arr,labels:lables_onehot_arr})
            
    coord.request_stop()
    coord.join(threads)
    session.close()
    

    以上代码中函数tf.train.shuffle_batch和tf.train.AdamOptimizer的组合使用其实就实现了用随机梯度下降法处理函数的最小值

  • 相关阅读:
    20201029-1 每周例行报告
    20201022-1 每周例行报告
    2020年秋软件工程“领跑衫”获奖感言
    20201015-3 每周例行报告
    20201207-总结
    20201126-1 每周例行报告
    20201120-1 每周例行报告
    20201112-1 每周例行报告
    20201105-1 每周例行报告
    20201022-1 每周例行报告
  • 原文地址:https://www.cnblogs.com/LQ6H/p/10335524.html
Copyright © 2011-2022 走看看