zoukankan      html  css  js  c++  java
  • 吴裕雄 python深度学习与实践(10)

    import tensorflow as tf
    
    input1 = tf.constant(1)
    print(input1)
     
    input2 = tf.Variable(2,tf.int32)
    print(input2)
    
    input2 = input1
    sess = tf.Session()
    print(sess.run(input2))

    import tensorflow as tf
    
    input1 = tf.placeholder(tf.int32)
    input2 = tf.placeholder(tf.int32)
    
    output = tf.add(input1, input2)
    
    sess = tf.Session()
    print(sess.run(output, feed_dict={input1:[1], input2:[2]}))

    import numpy as np
    import tensorflow as tf
    
    """
    这里是一个非常好的大数据验证结果,随着数据量的上升,集合的结果也越来越接近真实值,
    这也是反馈神经网络的一个比较好的应用
    这里不是很需要各种激励函数
    而对于dropout,这里可以看到加上dropout,loss的值更快。
    随着数据量的上升,结果就更加接近于真实值。
    """
    
    inputX = np.random.rand(3000,1)
    noise = np.random.normal(0, 0.05, inputX.shape)
    outputY = inputX * 4 + 1 + noise
    
    #这里是第一层
    weight1 = tf.Variable(np.random.rand(inputX.shape[1],4))
    bias1 = tf.Variable(np.random.rand(inputX.shape[1],4))
    x1 = tf.placeholder(tf.float64, [None, 1])
    y1_ = tf.matmul(x1, weight1) + bias1
    
    y = tf.placeholder(tf.float64, [None, 1])
    loss = tf.reduce_mean(tf.reduce_sum(tf.square((y1_ - y)), reduction_indices=[1]))
    train = tf.train.GradientDescentOptimizer(0.25).minimize(loss)  # 选择梯度下降法
    
    init = tf.initialize_all_variables()
    sess = tf.Session()
    sess.run(init)
    
    for i in range(1000):
        sess.run(train, feed_dict={x1: inputX, y: outputY})
    
    print(weight1.eval(sess))
    print("---------------------")
    print(bias1.eval(sess))
    print("------------------结果是------------------")
    
    x_data = np.matrix([[1.],[2.],[3.]])
    print(sess.run(y1_,feed_dict={x1: x_data}))

    import numpy as np
    
    aa = np.random.rand(5,4)
    print(aa)
    print(np.shape(aa))

    import tensorflow as tf
    import numpy as np
    
    """
    这里是一个非常好的大数据验证结果,随着数据量的上升,集合的结果也越来越接近真实值,
    这也是反馈神经网络的一个比较好的应用
    这里不是很需要各种激励函数
    而对于dropout,这里可以看到加上dropout,loss的值更快。
    随着数据量的上升,结果就更加接近于真实值。
    """
    
    inputX = np.random.rand(3000,1)
    noise = np.random.normal(0, 0.05, inputX.shape)
    outputY = inputX * 4 + 1 + noise
    
    #这里是第一层
    weight1 = tf.Variable(np.random.rand(inputX.shape[1],4))
    bias1 = tf.Variable(np.random.rand(inputX.shape[1],4))
    x1 = tf.placeholder(tf.float64, [None, 1])
    y1_ = tf.matmul(x1, weight1) + bias1
    #这里是第二层
    weight2 = tf.Variable(np.random.rand(4,1))
    bias2 = tf.Variable(np.random.rand(inputX.shape[1],1))
    y2_ = tf.matmul(y1_, weight2) + bias2
    
    y = tf.placeholder(tf.float64, [None, 1])
    
    loss = tf.reduce_mean(tf.reduce_sum(tf.square((y2_ - y)), reduction_indices=[1]))
    train = tf.train.GradientDescentOptimizer(0.25).minimize(loss)  # 选择梯度下降法
    
    init = tf.initialize_all_variables()
    sess = tf.Session()
    sess.run(init)
    
    for i in range(1000):
        sess.run(train, feed_dict={x1: inputX, y: outputY})
    
    print(weight1.eval(sess))
    print("---------------------")
    print(weight2.eval(sess))
    print("---------------------")
    print(bias1.eval(sess))
    print("---------------------")
    print(bias2.eval(sess))
    print("------------------结果是------------------")
    
    x_data = np.matrix([[1.],[2.],[3.]])
    print(sess.run(y2_,feed_dict={x1: x_data}))

  • 相关阅读:
    ubuntu服务器全部署
    果蝇优化算法(FOA)
    小波神经网络(WNN)
    R语言预测实战(第二章--预测方法论)
    ARIMA模型--粒子群优化算法(PSO)和遗传算法(GA)
    R语言预测实战(第一章)
    卷积神经网络(CNN)
    RSS(简易信息聚合)和jieba(第三方分词组件)
    第四章--基于概率论的分类方法:朴素贝叶斯--新闻分类(三)
    第四章--基于概率论的分类方法:朴素贝叶斯--过滤垃圾邮件(二)
  • 原文地址:https://www.cnblogs.com/tszr/p/10356471.html
Copyright © 2011-2022 走看看