zoukankan      html  css  js  c++  java
  • T2-创建第一个神经网络

    创建神经网络


    ### 1. 实现添加层函数 完整的「神经网络」, 包括添加神经层, 计算误差, 训练步骤, 判断是否在学习. 定义一个添加层的函数可以很容易的添加神经层. ``` import tensorflow as tf

    def add_layer(inputs, in_size, out_size, activation_function=None):
    # 权重: 定义为 in_size 行 out_size 列的矩阵
    Weights = tf.Variable(tf.random_normal([in_size, out_size]))
    # 误差: 1 行 out_size 列 (输入一个维度), 推荐不为 0, 所以这里全给 0.1
    biases = tf.Variable(tf.zeros([1, out_size]) + 0.1)
    # 我们要计算的数据模型: y = inputs * Weights + biases
    Wx_plus_b = tf.matmul(inputs, Weights) + biases
    # 是否使用激励函数?
    if activation_function is None:
    outputs = Wx_plus_b
    else:
    outputs = activation_function(Wx_plus_b)
    return outputs

    参数:
    
    *    inputs    : 输入数据
    *    in_size   : 输入大小
    *    out_size: 输出大小
    *    activation_function: 激励函数, 默认不使用激励函数 (None)
    </br>
    
    ### 2. 建造神经网络
    
    1. 构建所需数据
    
    

    import numpy as np

    x_data = np.linspace(-1, 1, 300, dtype=np.float32)

    这里加入噪点「noise」, 让数据更像真实情况

    noise = np.random.normal(0, 0.05, x_data.shape).astype(np.float32)
    y_data = np.square(x_data) - 0.5 + noise

    我们要构建的是: y = x^2 - 0.5
    
    
    2. 定义神经网络的输入
    

    占位符类型为 float32, None 表示输入有多少都可以, 1 表示输入只有一个特征

    xs = tf.palceholder(tf.float32, [None, 1])
    ys = tf.placeholder(tf.float32, [None, 1])

    
    3. 定义神经层
    神经层包括输入层, 隐藏层和输出层. 输入层和输出层的结构一样, 隐藏层可以自定义属性个数. 这里我们构建一个「1个 输入层, 10 个隐藏层, 1 个输出层的神经网络」.
    

    隐藏层: 输入为我们给的 xs, 输出为要输出到输出层的 10

    l1 = add_layer(xs, 1, 10, acitvation_function=tf.nn.relu)

    输出层: 输入即为隐藏层的输出

    prediction = add_layer(l1, 10, 1, activation_function=None)

    
    4. 计算误差并优化
    

    计算预测值prediction和真实值的误差, 对二者差的平方求和再取平均

    loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys - prediction)),
    reduction_indices=[1])

    提升机器学习的准确率, 对误差 loss 进行化, 效率为 0.1 (一般小于 1)

    train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss)

    </br>
    
    ### 3. 让机器开始学习
    注意: 上一篇提到的占位符 (placeholder) 需要填充 (feed) 值才能使用「[TensorFlow 基础](http://www.cnblogs.com/TaylorBoy/p/6749763.html "TaylorBoy")」
    

    记得变量都要进行初始化

    init_op = tf.global_variables_initializer()

    我们让机器学习个 1000 次

    with tf.Session() as sess:
    sess.run(init_op)
    for i range(1000):
    # 1000 次的学习训练, 记得占位符要填充值
    sess.run(train_step, feed_dict={xs: x_data, ys: y_data})
    # 当然要输出来看一下学的怎么样了 (看的是误差, 50步来一次怎么样)
    if 0 == i % 50:
    print(sess.run(loss, feed_dict={xs: x_data, ys: y_data}))

    </br>
    
    ***
    
    完整代码:
    

    !/usr/bin/env python3

    -- coding: utf-8 --

    import tensorflow as tf
    import numpy as np

    def add_layer(inputs, in_size, out_size, activation_function=None):
    Weight = tf.Variable(tf.random_normal([in_size, out_size]))
    biases = tf.Variable(tf.zeros([1, out_size]) + 0.1) # biases not 0 is good
    Wx_plus_b = tf.matmul(inputs, Weight) + biases
    # if activation function is None or not:
    if activation_function is None:
    outputs = Wx_plus_b
    else:
    outputs = activation_function(Wx_plus_b)
    return outputs

    Create data: [-1, 1] steps: 300 newaxis: weidu--have 300 examples.

    x_data = np.linspace(-1, 1, 300, dtype=np.float32)[:, np.newaxis]
    noise = np.random.normal(0, 0.05, x_data.shape).astype(np.float32)
    y_data = np.square(x_data) - 0.5 + noise

    利用占位符定义我们所需的神经网络的输入

    xs = tf.placeholder(tf.float32, [None, 1])
    ys = tf.placeholder(tf.float32, [None, 1])

    输出层和输入层的结构是一样的;隐藏层我们可以自己假设

    layer1 = add_layer(xs, 1, 10, activation_function=tf.nn.relu) # Hidden layer
    prediction = add_layer(layer1, 10, 1, activation_function=None) # Output layer

    计算预测值prediction和真实值的误差,对二者差的平方求和再取平均

    loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys - prediction),
    reduction_indices=[1]))

    train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss)

    init = tf.initialize_all_variables()

    init = tf.global_variables_initializer()

    Session Start

    sess = tf.Session()
    sess.run(init)

    当运算要用到placeholder时,就需要feed_dict这个字典来指定输入

    for i in range(1000):
    # training
    sess.run(train_step, feed_dict={xs: x_data, ys: y_data})
    if 0 == i % 50:
    print(sess.run(loss, feed_dict={xs: x_data, ys:y_data}))

    sess.close()

    Session End

    * 输出:
    0.555579
    0.00811244
    0.00558974
    0.00454906
    0.00409126
    0.0037941
    0.00361542
    0.00350574
    0.00342049
    0.00335584
    0.00330608
    0.00326254
    0.00322398
    0.00318576
    0.00315625
    0.00313178
    0.00311166
    0.00309352
    0.00307576
    0.00305789
    </br>
  • 相关阅读:
    数据库访问优化之四:减少数据库服务器CPU运算
    数据库访问优化之三:减少交互次数
    数据库访问优化之二:返回更少的数据
    数据库访问优化之一:减少数据访问
    数据库性能优化
    磁盘映射
    strcmp
    程序设计基础
    Linux——【rpm、yun、源码包】安装
    Rsa2加密报错java.security.spec.InvalidKeySpecException的解决办法
  • 原文地址:https://www.cnblogs.com/TaylorBoy/p/6753917.html
Copyright © 2011-2022 走看看