zoukankan      html  css  js  c++  java
  • 初识TensorFlow

    在前边几期的文章中,笔者已经用TensorFlow进行的一些基础性的探索工作,想必大家对TensorFlow框架也是非常的好奇,本着发扬雷锋精神,笔者将详细的阐述TensorFlow框架的基本用法,并尽力做到通俗易懂,对得起读者花费的时间。

    行文目录

    本文从以下三个方面,展开对TensorFlow的剖析:

    • TensorFlow框架概述

    • TensorFlow基本操作

    • TensorBoard使用

    TensorFlow框架概述

    2015年11月9日,为加速深度学习的发展,Google发布了深度学习框架TensorFlow,经过几年的发展,TensorFlow成为了最流行的深度学习框架。

    TensorFlow从名字上解释就是Tensor(张量)+Flow(流)。什么是张量呢?张量是矢量概念的推广,可以表示任意维度的数据,如一维数组,二维矩阵,N维数据。TensorFlow的运行过程实质就是张量从图的一端流动到另一端的计算过程。下文简单阐述TensorFlow的一些基本概念。

    深度学习框架分为“动态计算图”和“静态计算图”,支持动态计算图的被称为动态框架,支持静态计算图的被称为静态框架。

    静态框架:先定义计算执行顺序和内存分配策略,然后按照规定的计算顺序和资源进行计算。打个比方,在盖大楼的时候,静态框架就好比设计师团队与施工团队分离,设计师设计好图纸之后,施工团队才开始按照图纸方案进行施工。

    动态框架:声明和执行一起执行。类似于设计师和施工团队一块儿工作,设计师说先“打地基”,施工团队就开始施工打地基。

    TensorFlow支持静态和动态两种方式,一般TensorFlow程序分为两个阶段,图的构建阶段和图的执行阶段。

    • 操作

    图中节点就是一个操作,比如,一次加法运算就是一个操作,构建变量的初始值也是一个操作。构建图的过程中,需要把所有操作确定下来,比如指定操作在哪台设备上执行。一些基本操作如下所示:

    1#定义变量a操作
    2a = tf.Variable(1.0, name="a")
    3#定义操作b=a+1
    4b = tf.add(a, 1, name="b")
    5#定义操作c=b+1
    6c = tf.add(b, 1, name="c")
    7#定义操作d=b+10
    8d = tf.add(b, 10, name="d")

    操作之间存在依赖关系,这种依赖被称为边,操作与边相连接就构成了一张图,如图1所示:

    图1 数据流图

    • 会话

    TensorFlow的计算需要在会话中执行,当创建一个会话时,如果没有传递参数,会启动默认的图来构造图结构,并将图中定义的操作根据定义情况分发到CPU或者GPU上执行。

     1import tensorflow as tf
    2#定义常量
    3v1 = tf.constant(1, name="value1")
    4v2 = tf.constant(1, name="value2")
    5#v1+v2
    6add_op = tf.add(v1, v2, name="add_op_name")
    7#创建会话
    8with tf.Session() as sess:
    9  result = sess.run(add_op)
    10  print("1 + 1 = %.0f" % result)

    TensorFlow基本操作

    • 定义常量、变量和占位符

    定义常量:a = tf.constant(1, name="value1")

    定义变量:v2 = tf.Variable(0.01,name=”weight2”)

        注意:变量需要经过初始化之后才能使用,常量不需要

    定义占位符:v3 = tf.placeholder("float")

     1import  tensorflow  as  tf
    2#定义常量
    3a = tf.constant(1, name="value1")
    4#定义变量
    5v1 = tf.Variable(0.001)
    6v2 = tf.Variable(v1.initialized_value() * 2)
    7#定义占位符
    8v3 = tf.placeholder("float")
    9v4 = tf.placeholder("float")
    10y = tf.mul(v3, v4) #构造一个op节点
    11
    12init = tf.global_variables_initializer()
    13with tf.Session() as sess:
    14  #变量初始化
    15sess.run(init)
    16  print("v1 is:")
    17  print(sess.run(v1))
    18  print("v2 is:")
    19  print(sess.run(v2))
    20#占位符操作
    21      print sess.run(y, feed_dict={v3: 3, v4: 3})
    • TensorFlow函数

    笔者对TensorFlow中常用的函数进行了简单汇总,但是并不是非常全面,如果有需要,后续笔者会单独写一篇文章来详细的描述TensorFlow中函数的用法。

    表1 TF常用函数汇总

       函数族函数介绍        常用函数
    Math 数学函数 add(加), sub(减), mul(乘), Div(除),mod(取模)、abs(取绝对值)、log(计算log)、sin(正弦)
    Array 数组操作 concat(合并), slice(切片), Split(分割)
    Matrix 矩阵操作 diag(返回一个只有对角线的矩阵)、matul(矩阵相乘), matrix_inverse(求逆矩阵), matrix_determinant(求行列式)
    Activation Functions 激活函数 relu、relu6、sigmoid、tanh、dropout
    Convolution 卷积函数 conv2d、conv3d
    Pooling 池化函数 avg_pool(平均池化)、max_pool、max_pool_with_argmax、avg_pool3d、max_pool3d
    Normalization 数据标准化 l2_normalize(2范数标准化)、normalize_moments(均值方差归一化)
    Losses 损失函数 l2_loss(误差平方和)
    Classification 分类函数 sigmoid_cross_entropy_with_logits(交叉熵)、softmax、log_softmax、softmax_cross_entropy_with_logits
    Recurrent Neural Networks 循环神经网络 rnn、bidirectional_rnn(双向rnn)、state_saving_rnn(可存储调用状态rnn)
    Checkpointing 模型保存与加载 save(存储), restore(装载)

    TensorBoard使用

    当训练一个复杂的神经网络时候,经常会根据情况调整网络结构。比如,在训练过程中根据训练集和验证集的准确率,来判断是否存在过拟合,或者查看训练过程中损失函数。一般可以将这些数据打印到日志文件,但是当信息比较多的时候,直接看日志文件不直观。为了更好的理解、调试和优化网络,TensorFlow提供了一套数据可视化工具TensorBoard。

    下边举一个例子来演示一下如何收集训练过程中的数据,并且利用TensorBoard将数据展示出来。本例中要进行线性拟合,拟合的函数大致为,但2和10事先不知道,通过训练得到。训练的完整代码如下:

     1#coding=utf-8
    2import numpy as np
    3import tensorflow as tf
    4
    5# 构建图
    6x = tf.placeholder(tf.float32)
    7y = tf.placeholder(tf.float32)
    8weight = tf.get_variable("weight", [], tf.float32, initializer=tf.random_normal_initializer())
    9biase  = tf.get_variable("biase", [], tf.float32, initializer=tf.random_normal_initializer())
    10pred = tf.add(tf.multiply(x, weight, name="mul_op"), biase, name="add_op")
    11
    12#损失函数
    13loss = tf.square(y - pred, name="loss")
    14#优化函数
    15optimizer = tf.train.GradientDescentOptimizer(0.01)
    16#计算梯度,应用梯度操作
    17grads_and_vars = optimizer.compute_gradients(loss)
    18train_op = optimizer.apply_gradients(grads_and_vars)
    19
    20#收集值的操作
    21tf.summary.scalar("weight", weight)
    22tf.summary.scalar("biase", biase)
    23tf.summary.scalar("loss", loss[0])
    24
    25merged_summary = tf.summary.merge_all()
    26
    27summary_writer = tf.summary.FileWriter('./log_graph' )
    28summary_writer.add_graph(tf.get_default_graph())
    29init_op = tf.global_variables_initializer()
    30
    31with tf.Session() as sess:
    32    sess.run(init_op)
    33    for step in range(500):
    34        train_x = np.random.randn(1)
    35        train_y = 2 * train_x + np.random.randn(1) * 0.01  + 10
    36        _, summary = sess.run([train_op, merged_summary], feed_dict={x:train_x, y:train_y})
    37        summary_writer.add_summary(summary, step)

    执行代码之后,会将日志文件写入log_graph文件夹下,执行如下命令运行TensorBoard:

    1tensorboard --logdir=./log_graph

    然后在浏览器中输入:http://ip:6006,打开TensorBoard的界面,从界面可以看到:

    (1)图的结构 

    图2 数据流图

    (2)损失函数变化

    图3 损失函数变化图

    (3)拟合系数变化:

    图4 系数和截距项变化图

    从上图可以直观看出,随着训练的次数增加,系数趋近2,截距项趋近10,误差越来越小。

  • 相关阅读:
    高质量c/c++编程(10)
    .net 访问excel问题
    高质量c/c++编程(9)
    C#排序算法 之 冒泡排序
    C#排序算法 之 希尔排序
    高质量c/c++编程附录
    C#排序算法 之 插入排序
    读《漂亮女上司》有感
    高质量c/c++编程(6)
    高质量c/c++编程(5)
  • 原文地址:https://www.cnblogs.com/followees/p/10422796.html
Copyright © 2011-2022 走看看