当前位置: 首页 > news >正文

PaddlePaddle初使用

模型导出与预测

# -c 后面设置训练算法的yml配置文件
# -o 配置可选参数
# Global.pretrained_model 参数设置待转换的训练模型地址,不用添加文件后缀 .pdmodel,.pdopt或.pdparams。
# Global.save_inference_dir参数设置转换的模型将保存的地址。python3 tools/export_model.py -c configs/rec/PP-OCRv3/en_PP-OCRv3_rec.yml -o Global.pretrained_model=./pretrain_models/en_PP-OCRv3_rec_train/best_accuracy  Global.save_inference_dir=./inference/en_PP-OCRv3_rec/

**注意:**如果是在自己的数据集上训练的模型,并且调整了中文字符的字典文件,请注意修改配置文件中的character_dict_path为自定义字典文件。

转换成功后,在目录下有三个文件:

inference/en_PP-OCRv3_rec/├── inference.pdiparams         # 识别inference模型的参数文件├── inference.pdiparams.info    # 识别inference模型的参数信息,可忽略└── inference.pdmodel           # 识别inference模型的program文件

如果训练时修改了文本的字典,在使用inference模型预测时,需要通过–rec_char_dict_path指定使用的字典路径

python3 tools/infer/predict_rec.py --image_dir="./doc/imgs_words_en/word_336.png" --rec_model_dir="./your inference model" --rec_image_shape="3, 48, 320" --rec_char_dict_path="your text dict path"

Paddle2ONNX

安装相关库

# 安装paddle2onnx
pip install paddle2onnx
# 安装 ONNXRuntime,建议安装 1.9.0 版本,可根据环境更换版本号
pip install onnxruntime==1.9.0

命令行转换

paddle2onnx --model_dir saved_inference_model \--model_filename model.pdmodel \--params_filename model.pdiparams \--save_file model.onnx \--enable_dev_version True

有ONNX模型优化的需求,推荐使用 onnx-simplifier,也可使用如下命令对模型进行优化

python -m paddle2onnx.optimize --input_model model.onnx --output_model new_model.onnx

如需要修改导出的模型输入形状,如改为静态 shape

python -m paddle2onnx.optimize --input_model model.onnx \--output_model new_model.onnx \--input_shape_dict "{'x':[1,3,224,224]}"

参数

参数参数说明
–model_dir配置包含 Paddle 模型的目录路径
–model_filename [可选]配置位于 --model_dir 下存储网络结构的文件名
–params_filename [可选]配置位于 --model_dir 下存储模型参数的文件名称
–save_file指定转换后的模型保存目录路径
–opset_version [可选]配置转换为 ONNX 的 OpSet 版本,目前支持 7~16 等多个版本,默认为 9
–enable_dev_version [可选]是否使用新版本 Paddle2ONNX(推荐使用),默认为 True
–enable_onnx_checker [可选]配置是否检查导出为 ONNX 模型的正确性, 建议打开此开关, 默认为 False
–enable_auto_update_opset [可选]是否开启 opset version 自动升级功能,当低版本 opset 无法转换时,自动选择更高版本的 opset进行转换, 默认为 True
–input_shape_dict [可选]配置输入的 shape, 默认为空; 此参数即将移除,如需要固定Paddle模型输入Shape,请使用此工具
处理
–deploy_backend [可选]量化模型部署的推理引擎,支持 onnxruntime、tensorrt 或 others,当选择 others 时,所有的量化信息存储于 max_range.txt 文件中,默认为 onnxruntime
–version [可选]查看 paddle2onnx 版本
  • 使用 onnxruntime 验证转换模型, 请注意安装最新版本(最低要求 1.10.0)

推理预测

使用 ONNXRuntime 预测可执行如下命令:

python3.7 tools/infer/predict_system.py --use_gpu=False --use_onnx=True \
--det_model_dir=./inference/det_onnx/model.onnx  \
--rec_model_dir=./inference/rec_onnx/model.onnx  \
--cls_model_dir=./inference/cls_onnx/model.onnx  \
--image_dir=./deploy/lite/imgs/lite_demo.png

使用 Paddle Inference 预测可执行如下命令:

python3.7 tools/infer/predict_system.py --use_gpu=False \
--cls_model_dir=./inference/ch_ppocr_mobile_v2.0_cls_infer \
--rec_model_dir=./inference/ch_PP-OCRv2_rec_infer \
--det_model_dir=./inference/ch_PP-OCRv2_det_infer \
--image_dir=./deploy/lite/imgs/lite_demo.png
http://www.lryc.cn/news/276561.html

相关文章:

  • 【FPGA】分享一些FPGA数字信号处理相关的书籍
  • 深度解析JavaScript面试热点:事件循环、上下文、箭头函数、变量作用域与ES6模块
  • Javaweb之Mybatis的动态SQL的详细解析
  • 物联网与智能家居:跨境电商与未来生活的融合
  • Java内存模型(JMM)是基于多线程的吗
  • Linux离线安装MySQL(rpm)
  • 用 Socket.D 替代原生 WebSocket 做前端开发
  • Transformer架构和对照代码详解
  • 大数的乘法
  • 年度征文 | 机器学习之心的2023
  • 13.Kubernetes应用部署完整流程:从Dockerfile到Ingress发布完整流程
  • 多年后再用TB,谈项目管理工具
  • Spark MLlib ----- ALS算法
  • ubuntu桥接方式上网
  • 收到的字符串写入xml并且将这个xml写入.zip文件中
  • 【读书笔记】《白帽子讲web安全》跨站脚本攻击
  • 第九节 初始化项目
  • 【论文阅读】深度学习中的后门攻击综述
  • Spring Boot中加@Async和不加@Async有什么区别?设置核心线程数、设置最大线程数、设置队列容量是什么意思?
  • Vue_00001_CLI
  • kubernetes ResourceQuotas Limits(资源配额)
  • 【ARMv8架构系统安装PySide2】
  • ECMAScript6详解
  • [C#]使用PaddleInference图片旋转四种角度检测
  • stable diffusion 基础教程-提示词之光的用法
  • 第9课 回声抑制(AEC+AGC+ANS)的实现
  • 软件测试|Python中的变量与关键字详解
  • 修改安卓apk设置为安卓主屏幕(launcher)
  • unity中 canvas下物体的朝向跟随
  • HarmonOS 日期选择组件(DatePicker)