模型我们训练出来了,但是要想实际部署到移动端,我们就需要paddle的框架
GitHub上有开源的paddlemobile框架,也有paddle-Lite框架,我们先选择mobile
在那之前,我们要先将模型转化为opt的.nb格式
代码如下:
# 引用Paddlelite预测库 from sys import argv import google from paddlelite import lite # 1. 创建opt实例 opt=lite.Opt() # 2. 指定输入模型地址 opt.set_model_dir("infer_model") # 3. 指定转化类型: arm、x86、opencl、npu opt.set_valid_places("arm,opencl,x86") # 4. 指定模型转化类型: naive_buffer、protobuf opt.set_model_type("naive_buffer") opt.set_optimize_out("mobiles_opt_x") # 5. 执行模型优化 opt.run()