zoukankan      html  css  js  c++  java
  • TensorFlow|非线性回归

    理解:tensorflow神经网络框架,主要运算部分在ts在外进行。可以简单的理解为:写出公式----执行会话----送出运算

    一.简单矩阵乘法运算

      1.张量:多维数组

          0阶张量:123

          1阶张量:[1,2,3]     数组列表

          2阶张量:[[1,2,3],[4,5,6],[7,8,9]]     矩阵3X3

                     [[1,2,3]]    矩阵1X3

                     [[1],[2],[3]]    矩阵3X1   

          n阶张量:[[[[[[[[````````]]]]]]]]右边括号数

      2.实现矩阵的乘法:写出公式,执行会话

        

    import tensorflow as tf
    
    x = tf.constant([[1,2,3]])         ###定义x矩阵  1x3
    w = tf.constant([[4],[5],[6]])     ###定义w矩阵  3x1
    y = tf.matmul(x,w)                 ###定义矩阵乘法 y = xw
    
    with tf.compat.v1.Session() as sess:  ###用with调用会话开始计算
        print(sess.run(y))                ###运行结果[[32]] 只有一个值二阶张量(矩阵)
    

    二.神经网络

      非线性回归:

    •   1.数据准备--特征提取
    •   2.前向传播:先写公式,再会话执行
    •   3.反向传播:特征数据喂给NN,优化权重w参数
    •   4.使用训练好的模型预测和分类

      模块导入

    import tensorflow as tf
    import numpy as np
    import matplotlib.pyplot as plt
    import tushare as ts

      1.数据准备

      通过 y=x^2+随机数生成模拟的输入数据

    x_data = np.linspace(-0.5, 0.5, 200)[:, np.newaxis]
    noise = np.random.normal(0, 0.02, x_data.shape)
    y_data = np.square(x_data) + noise
    

      说明:np.linspace(-0.5,0.5,200)在-0.5到0.5间生成200个等差数列     得到一维数组

              np.linspace(-0.5, 0.5, 200)[:, np.newaxis]  将一维数组转化成矩阵

    比如:数组 a1= [1 2 3 4  5 ]                  shape:(5,)

               矩阵 a2 = a1[:, np.newaxis]        shape:(5,1)                          5行1列矩阵

       矩阵 a3 = a1[np.newaxis, :]        shape:(1,5)      [[1 2 3 4 5]]  1行5列矩阵

      2.(前向传播)写出公式,搭建NN      y = xw+b   

        输入层:单个神经元的形状shape: 1x1向量(矩阵、这里是单个数字)

        中间层:这里设置10个神经元:L1= xw1+b1       所以权重形状 1x10   偏置形状1x10

        输出层:输出单个神经元形状shape:1x1向量  L2= L1w2+b2        1x10   10x1   = 1 x 1

        

        定义占位符,用于批量接受输入

    # 定义两个placeholder
    x = tf.compat.v1.placeholder(tf.float32, [None, 1])
    y = tf.compat.v1.placeholder(tf.float32, [None, 1])
    

        定义隐藏层:L1= softmax(xw1+b1)

    # 定义神经网络中间层  单个一维输入(一个神经元)  扩展到10维(10个神经元)  
    W1 = tf.Variable(tf.random.normal([1, 10])) b1 = tf.Variable(tf.zeros([1, 10])) SL1 = tf.matmul(x, W1) + b1 L1 = tf.nn.tanh(SL1)

        定义输出层:L2 = softmax(L1w2+b2)

    # 定义神经网络输出层       10维(10个神经元)  降低至   1维(一个神经元)预测
    W2 = tf.Variable(tf.random.normal([10, 1]))
    b2 = tf.Variable(tf.zeros([1, 1]))
    SL2 = tf.matmul(L1, W2) + b2
    prediction = tf.nn.tanh(SL2)
    

      关于激活函数:nn.tanh()

      3.(反向传播)通过最小化损失函数(代价函数loss)不断优化权重w值

    理解:输入x通过神经元计算后输出y,这个y值与实际值y_data的误差最小化

    loss = tf.reduce_mean(tf.square(y - prediction))
    

      说明:均方误差:(1/n)*(y-y_data)^2

    最小化:通过梯度下降的方法最小化loss值

    train_step = tf.compat.v1.train.GradientDescentOptimizer(0.2).minimize(loss)
    

      说明:此代码中的0.2代表学习率,代表梯度下降迭代步移动的大小,学习率也可以设置成变量,随着迭代的进度调整(后面的文章再进行详细分解)

      4.执行会话,将NN框架中的公式,打包由底层代码进行运算

        4.1初始化变量

          权重值w1,w2,偏置值b1、b2在NN框架中只是写出了初始化的公式,并没有真实              赋值,初始化就是运行公式,为权重和偏置进行赋值。

          将准备好的输入数据,喂入NN网络,以feed_dict=字典的形式喂入:同一组数据输入,通过10000次训练(自定义,此处为100000)

    with tf.compat.v1.Session() as sess:
        # 变量初始化
        sess.run(tf.compat.v1.global_variables_initializer())
        for _ in range(10000):               
            sess.run(train_step, feed_dict={x: x_data, y: y_data})
    

          在会话中可以print()计算过程中的值:比如 预测值

    prediction_value = sess.run(prediction, feed_dict={x: x_data})
    

          可视化:

        # 获得预测值
        prediction_value = sess.run(prediction, feed_dict={x: x_data})
        # 画图
        plt.figure()
        plt.scatter(x_data, y_data)  ###散点图
        plt.plot(x_data, prediction_value, 'r-', lw=5)  ##曲线图
        plt.show()
    

             

  • 相关阅读:
    四则运算题目生成器
    个人博客作业Week1
    M1/M2项目阶段总结
    个人博客作业week7
    个人博客作业—2
    第一周个人博客作业
    关于生成四则运算式
    个人博客作业week7
    第二次博客作业
    关于webservice大数据量传输时的压缩和解压缩
  • 原文地址:https://www.cnblogs.com/liuhuacai/p/11215000.html
Copyright © 2011-2022 走看看