zoukankan      html  css  js  c++  java
  • tensorflow实战笔记(19)----使用freeze_graph.py将ckpt转为pb文件

    一、作用:

    https://blog.csdn.net/yjl9122/article/details/78341689

    这节是关于tensorflow的Freezing,字面意思是冷冻,可理解为整合合并;整合什么呢,就是将模型文件和权重文件整合合并为一个文件,主要用途是便于发布。
    官方解释可参考:https://www.tensorflow.org/extend/tool_developers/#freezing
    这里我按我的理解翻译下,不对的地方请指正:
    有一点令我们为比较困惑的是,tensorflow在训练过程中,通常不会将权重数据保存的格式文件里(这里我理解是模型文件),反而是分开保存在一个叫checkpoint的检查点文件里,当初始化时,再通过模型文件里的变量Op节点来从checkoupoint文件读取数据并初始化变量。这种模型和权重数据分开保存的情况,使得发布产品时不是那么方便,所以便有了freeze_graph.py脚本文件用来将这两文件整合合并成一个文件。
    freeze_graph.py是怎么做的呢?首行它先加载模型文件,再从checkpoint文件读取权重数据初始化到模型里的权重变量,再将权重变量转换成权重 常量 (因为 常量 能随模型一起保存在同一个文件里),然后再通过指定的输出节点将没用于输出推理的Op节点从图中剥离掉,再重新保存到指定的文件里(用write_graphdef或Saver)

    文件目录:tensorflow/python/tools/free_graph.py
    测试文件:tensorflow/python/tools/free_graph_test.py 这个测试文件很有学习价值
    参数:
    总共有11个参数,一个个介绍下(必选: 表示必须有值;可选: 表示可以为空):
    1、input_graph:(必选)模型文件,可以是二进制的pb文件,或文本的meta文件,用input_binary来指定区分(见下面说明)
    2、input_saver:(可选)Saver解析器。保存模型和权限时,Saver也可以自身序列化保存,以便在加载时应用合适的版本。主要用于版本不兼容时使用。可以为空,为空时用当前版本的Saver。
    3、input_binary:(可选)配合input_graph用,为true时,input_graph为二进制,为false时,input_graph为文件。默认False
    4、input_checkpoint:(必选)检查点数据文件。训练时,给Saver用于保存权重、偏置等变量值。这时用于模型恢复变量值。
    5、output_node_names:(必选)输出节点的名字,有多个时用逗号分开。用于指定输出节点,将没有在输出线上的其它节点剔除。
    6、restore_op_name:(可选)从模型恢复节点的名字。升级版中已弃用。默认:save/restore_all
    7、filename_tensor_name:(可选)已弃用。默认:save/Const:0
    8、output_graph:(必选)用来保存整合后的模型输出文件。
    9、clear_devices:(可选),默认True。指定是否清除训练时节点指定的运算设备(如cpu、gpu、tpu。cpu是默认)
    10、initializer_nodes:(可选)默认空。权限加载后,可通过此参数来指定需要初始化的节点,用逗号分隔多个节点名字。
    11、variable_names_blacklist:(可先)默认空。变量黑名单,用于指定不用恢复值的变量,用逗号分隔多个变量名字。
    用法:
    例:python tensorflow/python/tools/free_graph.py
    –input_graph=some_graph_def.pb 注意:这里的pb文件是用tf.train.write_graph方法保存的
    –input_checkpoint=model.ckpt.1001 注意:这里若是r12以上的版本,只需给.data-00000….前面的文件名,如:model.ckpt.1001.data-00000-of-00001,只需写model.ckpt.1001
    –output_graph=/tmp/frozen_graph.pb
    –output_node_names=softmax

    另外,如果模型文件是.meta格式的,也就是说用saver.Save方法和checkpoint一起生成的元模型文件,free_graph.py不适用,但可以改造下:
    1、copy free_graph.py为free_graph_meta.py
    2、修改free_graph.py,导入meta_graph:from tensorflow.python.framework import meta_graph
    3、将91行到97行换成:input_graph_def = meta_graph.read_meta_graph_file(input_graph).graph_def

    这样改即可加载meta文件

    二、代码:

    https://blog.csdn.net/u012426298/article/details/85935946

    两步:

    CKPT 转换成 PB格式

    pb模型预测

    1、CKPT 转换成 PB格式

     将CKPT 转换成 PB格式的文件的过程可简述如下:

    通过传入 CKPT 模型的路径得到模型的图和变量数据
    通过 import_meta_graph 导入模型中的图
    通过 saver.restore 从模型中恢复图中各个变量的数据
    通过 graph_util.convert_variables_to_constants 将模型持久化【变成常量,这样才能将变量和模型图一起存储】
     下面的CKPT 转换成 PB格式例子,是我训练GoogleNet InceptionV3模型保存的ckpt转pb文件的例子,训练过程可参考博客:《使用自己的数据集训练GoogLenet InceptionNet V1 V2 V3模型(TensorFlow)》:

        def freeze_graph(input_checkpoint,output_graph):
            '''
            :param input_checkpoint:
            :param output_graph: PB模型保存路径
            :return:
            '''
            # checkpoint = tf.train.get_checkpoint_state(model_folder) #检查目录下ckpt文件状态是否可用
            # input_checkpoint = checkpoint.model_checkpoint_path #得ckpt文件路径
         
            # 指定输出的节点名称,该节点名称必须是原模型中存在的节点
            output_node_names = "InceptionV3/Logits/SpatialSqueeze"
            saver = tf.train.import_meta_graph(input_checkpoint + '.meta', clear_devices=True)
            graph = tf.get_default_graph() # 获得默认的图
            input_graph_def = graph.as_graph_def()  # 返回一个序列化的图代表当前的图
         
            with tf.Session() as sess:
                saver.restore(sess, input_checkpoint) #恢复图并得到数据
                output_graph_def = graph_util.convert_variables_to_constants(  # 模型持久化,将变量值固定
                    sess=sess,
                    input_graph_def=input_graph_def,# 等于:sess.graph_def
                    output_node_names=output_node_names.split(","))# 如果有多个输出节点,以逗号隔开
         
                with tf.gfile.GFile(output_graph, "wb") as f: #保存模型
                    f.write(output_graph_def.SerializeToString()) #序列化输出
                print("%d ops in the final graph." % len(output_graph_def.node)) #得到当前图有几个操作节点
         
                # for op in graph.get_operations():
                #     print(op.name, op.values())

    说明:

    1、函数freeze_graph中,最重要的就是要确定“指定输出的节点名称”,这个节点名称必须是原模型中存在的节点,对于freeze操作,我们需要定义输出结点的名字。因为网络其实是比较复杂的,定义了输出结点的名字,那么freeze的时候就只把输出该结点所需要的子图都固化下来,其他无关的就舍弃掉。因为我们freeze模型的目的是接下来做预测。所以,output_node_names一般是网络模型最后一层输出的节点名称,或者说就是我们预测的目标。

     2、在保存的时候,通过convert_variables_to_constants函数来指定需要固化的节点名称,对于鄙人的代码,需要固化的节点只有一个:output_node_names。注意节点名称与张量的名称的区别,例如:“input:0”是张量的名称,而"input"表示的是节点的名称。

    3、源码中通过graph = tf.get_default_graph()获得默认的图,这个图就是由saver = tf.train.import_meta_graph(input_checkpoint + '.meta', clear_devices=True)恢复的图,因此必须先执行tf.train.import_meta_graph,再执行tf.get_default_graph() 。

    4、实质上,我们可以直接在恢复的会话sess中,获得默认的网络图,更简单的方法,如下:

    def freeze_graph(input_checkpoint,output_graph):
        '''
        :param input_checkpoint:
        :param output_graph: PB模型保存路径
        :return:
        '''
        # checkpoint = tf.train.get_checkpoint_state(model_folder) #检查目录下ckpt文件状态是否可用
        # input_checkpoint = checkpoint.model_checkpoint_path #得ckpt文件路径
     
        # 指定输出的节点名称,该节点名称必须是原模型中存在的节点
        output_node_names = "InceptionV3/Logits/SpatialSqueeze"
        saver = tf.train.import_meta_graph(input_checkpoint + '.meta', clear_devices=True)
     
        with tf.Session() as sess:
            saver.restore(sess, input_checkpoint) #恢复图并得到数据
            output_graph_def = graph_util.convert_variables_to_constants(  # 模型持久化,将变量值固定
                sess=sess,
                input_graph_def=sess.graph_def,# 等于:sess.graph_def
                output_node_names=output_node_names.split(","))# 如果有多个输出节点,以逗号隔开
     
            with tf.gfile.GFile(output_graph, "wb") as f: #保存模型
                f.write(output_graph_def.SerializeToString()) #序列化输出
            print("%d ops in the final graph." % len(output_graph_def.node)) #得到当前图有几个操作节点

    调用freeze_graph方法:

    调用方法很简单,输入ckpt模型路径,输出pb模型的路径即可:

        # 输入ckpt模型路径
        input_checkpoint='models/model.ckpt-10000'
        # 输出pb模型的路径
        out_pb_path="models/pb/frozen_model.pb"
        # 调用freeze_graph将ckpt转为pb
        freeze_graph(input_checkpoint,out_pb_path)
    5、上面以及说明:在保存的时候,通过convert_variables_to_constants函数来指定需要固化的节点名称,对于鄙人的代码,需要固化的节点只有一个:output_node_names。因此,其他网络模型,也可以通过简单的修改输出的节点名称output_node_names,将ckpt转为pb文件 。

           PS:注意节点名称,应包含name_scope 和 variable_scope命名空间,并用“/”隔开,如"InceptionV3/Logits/SpatialSqueeze"

    2、 pb模型预测
        下面是预测pb模型的代码:

    def freeze_graph_test(pb_path, image_path):
        '''
        :param pb_path:pb文件的路径
        :param image_path:测试图片的路径
        :return:
        '''
        with tf.Graph().as_default():
            output_graph_def = tf.GraphDef()
            with open(pb_path, "rb") as f:
                output_graph_def.ParseFromString(f.read())
                tf.import_graph_def(output_graph_def, name="")
            with tf.Session() as sess:
                sess.run(tf.global_variables_initializer())
     
                # 定义输入的张量名称,对应网络结构的输入张量
                # input:0作为输入图像,keep_prob:0作为dropout的参数,测试时值为1,is_training:0训练参数
                input_image_tensor = sess.graph.get_tensor_by_name("input:0")
                input_keep_prob_tensor = sess.graph.get_tensor_by_name("keep_prob:0")
                input_is_training_tensor = sess.graph.get_tensor_by_name("is_training:0")
     
                # 定义输出的张量名称
                output_tensor_name = sess.graph.get_tensor_by_name("InceptionV3/Logits/SpatialSqueeze:0")
     
                # 读取测试图片
                im=read_image(image_path,resize_height,resize_width,normalization=True)
                im=im[np.newaxis,:]
                # 测试读出来的模型是否正确,注意这里传入的是输出和输入节点的tensor的名字,不是操作节点的名字
                # out=sess.run("InceptionV3/Logits/SpatialSqueeze:0", feed_dict={'input:0': im,'keep_prob:0':1.0,'is_training:0':False})
                out=sess.run(output_tensor_name, feed_dict={input_image_tensor: im,
                                                            input_keep_prob_tensor:1.0,
                                                            input_is_training_tensor:False})
                print("out:{}".format(out))
                score = tf.nn.softmax(out, name='pre')
                class_id = tf.argmax(score, 1)
                print "pre class_id:{}".format(sess.run(class_id))

    说明:

    1、与ckpt预测不同的是,pb文件已经固化了网络模型结构,因此,即使不知道原训练模型(train)的源码,我们也可以恢复网络图,并进行预测。恢复模型十分简单,只需要从读取的序列化数据中导入网络结构即可:

    tf.import_graph_def(output_graph_def, name="")
    2、但必须知道原网络模型的输入和输出的节点名称(当然了,传递数据时,是通过输入输出的张量来完成的)。由于InceptionV3模型的输入有三个节点,因此这里需要定义输入的张量名称,它对应网络结构的输入张量:

    input_image_tensor = sess.graph.get_tensor_by_name("input:0")
    input_keep_prob_tensor = sess.graph.get_tensor_by_name("keep_prob:0")
    input_is_training_tensor = sess.graph.get_tensor_by_name("is_training:0")
    以及输出的张量名称:

    output_tensor_name = sess.graph.get_tensor_by_name("InceptionV3/Logits/SpatialSqueeze:0")
    3、预测时,需要feed输入数据:

    # 测试读出来的模型是否正确,注意这里传入的是输出和输入节点的tensor的名字,不是操作节点的名字
    # out=sess.run("InceptionV3/Logits/SpatialSqueeze:0", feed_dict={'input:0': im,'keep_prob:0':1.0,'is_training:0':False})
    out=sess.run(output_tensor_name, feed_dict={input_image_tensor: im,
                                                input_keep_prob_tensor:1.0,
                                                input_is_training_tensor:False})
     4、其他网络模型预测时,也可以通过修改输入和输出的张量的名称 。

           PS:注意张量的名称,即为:节点名称+“:”+“id号”,如"InceptionV3/Logits/SpatialSqueeze:0"

    完整的CKPT 转换成 PB格式和预测的代码如下:

    # -*-coding: utf-8 -*-
    """
        @Project: tensorflow_models_nets
        @File   : convert_pb.py
        @Author : panjq
        @E-mail : pan_jinquan@163.com
        @Date   : 2018-08-29 17:46:50
        @info   :
        -通过传入 CKPT 模型的路径得到模型的图和变量数据
        -通过 import_meta_graph 导入模型中的图
        -通过 saver.restore 从模型中恢复图中各个变量的数据
        -通过 graph_util.convert_variables_to_constants 将模型持久化
    """
     
    import tensorflow as tf
    from create_tf_record import *
    from tensorflow.python.framework import graph_util
     
    resize_height = 299  # 指定图片高度
    resize_width = 299  # 指定图片宽度
    depths = 3
     
    def freeze_graph_test(pb_path, image_path):
        '''
        :param pb_path:pb文件的路径
        :param image_path:测试图片的路径
        :return:
        '''
        with tf.Graph().as_default():
            output_graph_def = tf.GraphDef()
            with open(pb_path, "rb") as f:
                output_graph_def.ParseFromString(f.read())
                tf.import_graph_def(output_graph_def, name="")
            with tf.Session() as sess:
                sess.run(tf.global_variables_initializer())
     
                # 定义输入的张量名称,对应网络结构的输入张量
                # input:0作为输入图像,keep_prob:0作为dropout的参数,测试时值为1,is_training:0训练参数
                input_image_tensor = sess.graph.get_tensor_by_name("input:0")
                input_keep_prob_tensor = sess.graph.get_tensor_by_name("keep_prob:0")
                input_is_training_tensor = sess.graph.get_tensor_by_name("is_training:0")
     
                # 定义输出的张量名称
                output_tensor_name = sess.graph.get_tensor_by_name("InceptionV3/Logits/SpatialSqueeze:0")
     
                # 读取测试图片
                im=read_image(image_path,resize_height,resize_width,normalization=True)
                im=im[np.newaxis,:]
                # 测试读出来的模型是否正确,注意这里传入的是输出和输入节点的tensor的名字,不是操作节点的名字
                # out=sess.run("InceptionV3/Logits/SpatialSqueeze:0", feed_dict={'input:0': im,'keep_prob:0':1.0,'is_training:0':False})
                out=sess.run(output_tensor_name, feed_dict={input_image_tensor: im,
                                                            input_keep_prob_tensor:1.0,
                                                            input_is_training_tensor:False})
                print("out:{}".format(out))
                score = tf.nn.softmax(out, name='pre')
                class_id = tf.argmax(score, 1)
                print "pre class_id:{}".format(sess.run(class_id))
     
     
    def freeze_graph(input_checkpoint,output_graph):
        '''
        :param input_checkpoint:
        :param output_graph: PB模型保存路径
        :return:
        '''
        # checkpoint = tf.train.get_checkpoint_state(model_folder) #检查目录下ckpt文件状态是否可用
        # input_checkpoint = checkpoint.model_checkpoint_path #得ckpt文件路径
     
        # 指定输出的节点名称,该节点名称必须是原模型中存在的节点
        output_node_names = "InceptionV3/Logits/SpatialSqueeze"
        saver = tf.train.import_meta_graph(input_checkpoint + '.meta', clear_devices=True)
     
        with tf.Session() as sess:
            saver.restore(sess, input_checkpoint) #恢复图并得到数据
            output_graph_def = graph_util.convert_variables_to_constants(  # 模型持久化,将变量值固定
                sess=sess,
                input_graph_def=sess.graph_def,# 等于:sess.graph_def
                output_node_names=output_node_names.split(","))# 如果有多个输出节点,以逗号隔开
     
            with tf.gfile.GFile(output_graph, "wb") as f: #保存模型
                f.write(output_graph_def.SerializeToString()) #序列化输出
            print("%d ops in the final graph." % len(output_graph_def.node)) #得到当前图有几个操作节点
     
            # for op in sess.graph.get_operations():
            #     print(op.name, op.values())
     
    def freeze_graph2(input_checkpoint,output_graph):
        '''
        :param input_checkpoint:
        :param output_graph: PB模型保存路径
        :return:
        '''
        # checkpoint = tf.train.get_checkpoint_state(model_folder) #检查目录下ckpt文件状态是否可用
        # input_checkpoint = checkpoint.model_checkpoint_path #得ckpt文件路径
     
        # 指定输出的节点名称,该节点名称必须是原模型中存在的节点
        output_node_names = "InceptionV3/Logits/SpatialSqueeze"
        saver = tf.train.import_meta_graph(input_checkpoint + '.meta', clear_devices=True)
        graph = tf.get_default_graph() # 获得默认的图
        input_graph_def = graph.as_graph_def()  # 返回一个序列化的图代表当前的图
     
        with tf.Session() as sess:
            saver.restore(sess, input_checkpoint) #恢复图并得到数据
            output_graph_def = graph_util.convert_variables_to_constants(  # 模型持久化,将变量值固定
                sess=sess,
                input_graph_def=input_graph_def,# 等于:sess.graph_def
                output_node_names=output_node_names.split(","))# 如果有多个输出节点,以逗号隔开
     
            with tf.gfile.GFile(output_graph, "wb") as f: #保存模型
                f.write(output_graph_def.SerializeToString()) #序列化输出
            print("%d ops in the final graph." % len(output_graph_def.node)) #得到当前图有几个操作节点
     
            # for op in graph.get_operations():
            #     print(op.name, op.values())
     
     
    if __name__ == '__main__':
        # 输入ckpt模型路径
        input_checkpoint='models/model.ckpt-10000'
        # 输出pb模型的路径
        out_pb_path="models/pb/frozen_model.pb"
        # 调用freeze_graph将ckpt转为pb
        freeze_graph(input_checkpoint,out_pb_path)
     
        # 测试pb模型
        image_path = 'test_image/animal.jpg'
        freeze_graph_test(pb_path=out_pb_path, image_path=image_path)
  • 相关阅读:
    推荐给新手gopher的一些书籍
    flask中路由处理
    flask中间件之请求扩展
    Chrome调试技巧
    iconfont 使用
    @font-face 使用过程
    SEO
    数据结构与算法2-4 队列
    数据结构与算法2-4 堆栈链式存储
    软件推荐--Sublime Text3常用快捷键查询(不断更新ing)
  • 原文地址:https://www.cnblogs.com/Lee-yl/p/11137519.html
Copyright © 2011-2022 走看看