zoukankan      html  css  js  c++  java
  • Tensorflow笔记(基础):批处理(batch_normalization)

    CODE

    # - * - coding: utf - 8 -*-
    #
    # 作者:田丰(FontTian)
    # 创建时间:'2017/8/2'
    # 邮箱:fonttian@Gmaill.com
    # CSDN:http://blog.csdn.net/fontthrone
    
    import tensorflow as tf
    import os
    
    os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'
    # 计算Wx_plus_b 的均值与方差,其中axis = [0] 表示想要标准化的维度
    Wx_plus_b = []
    out_size = []
    
    fc_mean, fc_var = tf.nn.moments(Wx_plus_b, axes=[0], )
    scale = tf.Variable(tf.ones([out_size]))
    shift = tf.Variable(tf.zeros([out_size]))
    epsilon = 0.001
    Wx_plus_b = tf.nn.batch_normalization(Wx_plus_b, fc_mean, fc_var, shift, scale, epsilon)
    # 上面的代码也就是在做
    Wx_plus_b = (Wx_plus_b - fc_mean) / tf.sqrt(fc_var + 0.001)
    Wx_plus_b = Wx_plus_b * scale + shift
    #
    

    RUN

    
    sigmoid
    [[ 0.7310586   0.88079703]
     [ 0.7310586   0.88079703]
     [ 0.7310586   0.88079703]]
    
    relu
    Tensor("Relu:0", shape=(2,), dtype=float32)
    
    dropout
    [[-0.  0.  6.  0.]]
    [[-0.  0.  0.  0.]]
  • 相关阅读:
    汉诺塔略写
    第六章实验报告
    第三次实验报告
    第五章 循环结构反思
    第二次实验报告
    第一次实验报告x
    第九章 结构体与共用体
    第八次实验报告
    第7章 数组实验
    第六章 函数和宏定义实验(2)
  • 原文地址:https://www.cnblogs.com/fonttian/p/7294790.html
Copyright © 2011-2022 走看看