zoukankan      html  css  js  c++  java
  • python调用caffe实现预测

    对于已经训练完成的caffemodel,对于单个的图片预测,用python接口来调用是一件非常方便的事情,下面就来讲述如何用python调用已经训练完成的caffemodel,以及prototxt,网上关于这一方面的教程已经是比较多的了,但是我想针对我做的过程发现的一些问题做一个总结

    ,先给出几个用python调用caffemodel的链接,链接1链接2链接3,主要是参考链接1的内容,整体代码如下,

     1 #coding=utf-8
     2 import sys
     3 import numpy as np
     4 import cv2
     5 from glob import glob
     6 from tqdm import tqdm
     7 caffe_root = '/usr/local/caffe/'
     8 sys.path.insert(0, caffe_root + 'python')
     9 import caffe
    10 import multiprocessing
    11 
    12 model_file = '/home/ying/data2/shiyongjie/mpc/res50/acc/resnet_50_deploy.prototxt'  # deploy文件
    13 pretrained = '/home/ying/data2/shiyongjie/mpc/res50/acc/model_iter_280000.caffemodel'  # 训练的caffemodel
    14 image_file = '/home/ying/data2/shiyongjie/mpc/coal_data/0/output/0_ffff4083-a13a-4e62-9870-59cd70709f7c.JPEG'
    15 mean_file = '/home/ying/data2/shiyongjie/mpc/coal_data/mean_train.npy'
    16 net = caffe.Net(model_file, pretrained, caffe.TEST)   #加载model和network
    17 
    18 #图片预处理设置
    19 transformer = caffe.io.Transformer({'data': net.blobs['data'].data.shape})  #设定图片的shape格式(1,3,28,28)
    20 transformer.set_transpose('data', (2,0,1))    #改变维度的顺序,由原始图片(28,28,3)变为(3,28,28)
    21 transformer.set_mean('data', np.load(mean_file).mean(1).mean(1))    #减去均值,前面训练模型时没有减均值,这儿就不用
    22 transformer.set_raw_scale('data', 255)    # 缩放到【0,255】之间
    23 transformer.set_channel_swap('data', (2,1,0))   #交换通道,将图片由RGB变为BGR
    24 
    25 print('#$%^&#@*!')
    26 image_file_list = glob('/home/ying/data2/shiyongjie/mpc/coal_data/0/output/*JPEG')  # 列出目录下的所有jpeg图片
    27 image_file_list.sort()
    28 image_file_list = image_file_list[:len(image_file_list)/2]  # 速度预测非常慢,将list拆分
    29 # pool = multiprocessing.Pool(processes = 4)
    30 results = []
    31 for image_file in tqdm(image_file_list):  # tqdm显示进度条
    32     im = caffe.io.load_image(image_file)
    33     net.blobs['data'].data[...] = transformer.preprocess('data', im)      #执行上面设置的图片预处理操作,并将图片载入到blob中
    34     out = net.forward()
    35     top_k = net.blobs['prob'].data[0].flatten().argsort()[-1:-6:-1]
    36     results.append(top_k[0])  # 将预测的结果保存到results中
    37     # print(top_k[0])
    38     # for i in np.arange(top_k.size):
    39     #    print top_k[i]
    40 acc0 = float(results.count(0))/float(len(image_file_list))  # 计算预测四类结果的概率
    41 acc1 = float(results.count(1))/float(len(image_file_list))
    42 acc2 = float(results.count(2))/float(len(image_file_list))
    43 acc3 = float(results.count(3))/float(len(image_file_list))
    44 print(acc0, acc1, acc2, acc3)

    这里其实有很多细节的问题,先给自己挖个坑,主要有,deploy文件与一般的train_val.prototxt文件有些许不同,看上面第三个链接,他们加载prototxt的是lenet.prototxt,去caffe/example/mnist/lenet.prototxt查看这个文件,如下

    实际上左边是deploy的,右边是train_val的,可以看出左右的区别就是地一层,右边train和test都是data层,左边是input层,其余全都一样,所以deploy也是很有讲究的,mnist是在训练的时候就没有减去均值,测试的时候加载均值文件在python内部写,见上述代码

    实际上,我测试用的deploy与mnist又有些许不同,如下

    同时修改最后一行

    我用的resnet基本上lr以及权重初始化的参数都已经取消了,最后一个name用prob,测试的时候输出的是预测为每一类的概率,在python最后的输出net.blobs['prob']也能够看出,感觉是个字典,给自己挖个坑

    可以看出,deploy文件与train_val文件是有很大的不同的,这种不同可能与平台无关,在python是这样,在c++也可能是这样

    但是用python调用速度非常慢,这样说吧,5w张图片要6个小时,速度相当慢,我一个同学,用c++调用同样的caffemodel200张图片,0.4s,5w张图片100s就搞定

  • 相关阅读:
    LUSE: 无监督数据预训练短文本编码模型
    LM-MLC 一种基于完型填空的多标签分类算法
    一种基于均值不等式的Listwise损失函数
    知识蒸馏基本知识及其实现库介绍
    自然语言处理中的负样本挖掘
    milvus和faiss安装及其使用教程
    Pyinstaller打包通用流程
    自我介绍
    作业十二
    作业十一
  • 原文地址:https://www.cnblogs.com/yongjieShi/p/8056467.html
Copyright © 2011-2022 走看看