zoukankan      html  css  js  c++  java
  • 机器学习:15 手写数字识别-小数据集

    1.手写数字数据集

    • from sklearn.datasets import load_digits
    • digits = load_digits()
    #1.手写数字数据集
    from sklearn.datasets import load_digits
    import numpy as np
    import pandas as pd
    from sklearn.preprocessing import MinMaxScaler
    from sklearn.preprocessing import OneHotEncoder
    digits = load_digits()
    X_data = digits.data.astype(np.float32)
    #将Y_data数据扁平化
    Y_data = digits.target.astype(np.float32).reshape(-1,1)

    提取的数据:

    2.图片数据预处理

    • x:归一化MinMaxScaler()
    • y:独热编码OneHotEncoder()或to_categorical
    • 训练集测试集划分
    • 张量结构
    scaler = MinMaxScaler()#归一化MinMaxScaler()
    X_data = scaler.fit_transform(X_data)
    print('归一化:')
    print(X_data)
    
    # OneHot处理
    Y = OneHotEncoder().fit_transform(Y_data).todense()
    print('OneHot处理:')
    print(Y)
     
    #转换为图片的格式(batch,height,width,channels)
    X=X_data.reshape(-1,8,8,1)
    from sklearn.model_selection import train_test_split
    # 划分训练集、测试集
    X_train,X_test,Y_train,Y_test = train_test_split(X,Y,test_size=0.2,random_state=0,stratify=Y)
    # 查看张量结构数据结构
    print('查看张量结构数据结构:')
    print(X_train.shape,X_test.shape,Y_train.shape,Y_test.shape) 

    输出结果如下:

    3.设计卷积神经网络结构

    • 绘制模型结构图,并说明设计依据。
    • 1)数据尺寸太小,特征较少,没必要使用过深的网络提取特征,三层就够了。

      2)由于图像尺寸较小,故卷积核尺寸设置为2×2,三个卷积-池化层的卷积核数量分别设置为32、64、128。

      3)该模型不使用Dropout,因为在使用小卷积核时Dropout丢弃过多特征会导致准确率变差。

      4)在卷积层后使用BatchNormalization替代Dropout,BN同样可以起到防止过拟合的作用,还可以加速模型收敛。

      5)池化前使用ReLu而不是sigmod作为激活函数,目的是避免“梯度消失”。

      6)由于这是一个用于分类的神经网络,独热编码值介于0.0~1.0之间,故全连接之后使用Softmax激活函数进行分类。

    •  

    设计依据代码如下:

    from tensorflow.keras.models import Sequential
    from tensorflow.keras.layers import Dense, Dropout, Flatten, Conv2D, MaxPool2D
    model = Sequential()#建立模型
    ks = (3, 3)  # 卷积核的大小
    input_shape = X_train.shape[1:]# 图片维数
    # 一层卷积
    model.add(Conv2D(filters=16, kernel_size=ks, padding='same', input_shape=input_shape, activation='relu'))
    # 池化层1
    model.add(MaxPool2D(pool_size=(2, 2)))
    # 防止过拟合,随机丢掉连接
    model.add(Dropout(0.25))
    # 二层卷积
    model.add(Conv2D(filters=32, kernel_size=ks, padding='same', activation='relu'))
    # 池化层2
    model.add(MaxPool2D(pool_size=(2, 2)))
    model.add(Dropout(0.25))
    # 三层卷积
    model.add(Conv2D(filters=64, kernel_size=ks, padding='same', activation='relu'))
    # 四层卷积
    model.add(Conv2D(filters=128, kernel_size=ks, padding='same', activation='relu'))
    # 池化层3
    model.add(MaxPool2D(pool_size=(2, 2)))
    model.add(Dropout(0.25))
    # 平坦层
    model.add(Flatten())
    # 全连接层
    model.add(Dense(128, activation='relu'))
    model.add(Dropout(0.25))
    # 激活函数softmax
    model.add(Dense(10, activation='softmax'))
    print(model.summary())

    结构如下所示:

    4.训练模型

    #优化器optimizer='adam'
    model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])
     
    # 划分0.2作为验证数据,每次训练300个数据,训练迭代300轮
    train_history = model.fit(x=X_train, y=Y_train, validation_split=0.2, batch_size=300, epochs=10, verbose=2)
    
    #构建模型评估
    score = model.evaluate(X_test,Y_test) 
    #预测模型
    y_pred = model.predict_classes(X_test)
    print(y_pred)

    预测结果:

     画Train History图

    # 画Train History图
    import matplotlib.pyplot as plt
    def show_train_history(train_histoty, train, validataion):
        plt.plot(train_history.history[train])
        plt.plot(train_history.history[validataion])
    #     plt.title('Train History')
        plt.ylabel('train')
        plt.xlabel('epoch')
        plt.legend(['train', 'validation'], loc='upper left')
        plt.show()
    # #准确率
    plt.title("准确率")
    show_train_history(train_history, 'accuracy', 'val_accuracy')
    # #损失率
    plt.title("损失率")
    show_train_history(train_history, 'loss', 'val_loss')

    5.模型评价

    • model.evaluate()
    • 交叉表与交叉矩阵
    • pandas.crosstab
    • seaborn.heatmap

    (1)模型评估

    import seaborn as sns
    # 模型评估
    score = model.evaluate(X_test, Y_test)
    print('评估准确率:', score[1])
    # 预测值
    y_pred = model.predict_classes(X_test)
    print('预测值:', y_pred[:10])

     (2)交叉表与交叉矩阵

    # 交叉表与交叉矩阵
    y_test1 = np.argmax(Y_test, axis=1).reshape(-1)
    y_true = np.array(y_test1)[0]
    # 交叉表查看预测数据与原数据对比
    pd.crosstab(y_true, y_pred, rownames=['true'], colnames=['predict'])
    # 交叉矩阵
    y_test1 = y_test1.tolist()[0]
    a = pd.crosstab(np.array(y_test1), y_pred, rownames=['Lables'], colnames=['Predict'])
    df = pd.DataFrame(a)
    sns.heatmap(df, annot=True, cmap="Reds", linewidths=0.2, linecolor='G')
    plt.show()

  • 相关阅读:
    JDK集合框架--LinkedList
    JDK集合框架--ArrayList
    JDK集合框架--综述
    JDK常用类解读--StringBuffer、StringBuilder
    JDK常用类解读--String
    【spring 注解驱动开发】扩展原理
    【spring 注解驱动开发】spring事务处理原理
    【spring 注解驱动开发】Spring AOP原理
    【spring 注解驱动开发】spring自动装配
    【spring 注解驱动开发】spring对象的生命周期
  • 原文地址:https://www.cnblogs.com/zhif97/p/13068014.html
Copyright © 2011-2022 走看看