当前位置: 首页 > news >正文

Paddle Inference部署推理(三)

三:Paddle Inference推理 导出模型

Paddle Inference支持使用飞桨静态图模型进行推理,您可以通过以下两种方式获取静态图模型:

(1)飞桨框架导出推理模型

飞桨框架在训练模型过程中,会在本地存储最终训练产出的模型结构和权重参数,这个步骤中存储的模型文件包含了模型的前向、反向以及优化器等信息(即常说的动态图模型,模型参数文件名为*.pdparams和*.pdopt)。 而在进行模型部署时,我们只需要模型的前向结构,以及前向的权重参数,并且会针对网络结构做部署优化(如算子融合等),以保证部署性能更优,因此在模型部署阶段,需要进行模型导出(即常说的静态图模型,模型参数文件名为*.pdmodel和*.pdiparams)。 您可以参考此篇文档导出用于推理的飞桨模型:

  • 飞桨框架模型导出

(2)导入其他框架模型(X2Paddle)

通过X2Paddle工具,目前支持将Pytorch、ONNX、TensorFlow、Caffe的模型转换成飞桨静态图模型结构,具体使用方法请参考以下文档:

将Pytorch、TensorFlow、ONNX等框架转换成飞桨模型

(可选)模型结构可视化

在得到用于Paddle Inference推理的 飞桨静态图模型 后,推荐您使用 VisualDL 或其他类似工具对您的模型进行查看,方便您后续的推理应用开发。 您可以参考以下文档可视化您的模型:

模型结构可视化

http://www.lryc.cn/news/491532.html

相关文章:

  • python(四)os模块、sys模块
  • Oracle 数据库 IDENTITY 列
  • 【前端】js vue 屏蔽BackSpace键删除键导致页面后退的方法
  • 深入解密 K 均值聚类:从理论基础到 Python 实践
  • ArcGIS应用指南:ArcGIS制作局部放大地图
  • 非root用户安装CUDA
  • 单点修改,区间求和或区间询问最值(线段树)
  • 线性代数空间理解
  • Spring Boot教程之五:在 IntelliJ IDEA 中运行第一个 Spring Boot 应用程序
  • C51相关实验
  • docker离线安装linux部分问题整理
  • ISUP协议视频平台EasyCVR萤石设备视频接入平台银行营业网点安全防范系统解决方案
  • 递推概念和例题
  • 开发工具 - VSCode 快捷键
  • 数据库的联合查询
  • 【人工智能】基于PyTorch的深度强化学习入门:从DQN到PPO的实现与解析
  • 【深度学习】【RKNN】【C++】模型转化、环境搭建以及模型部署的详细教程
  • CentOS环境上离线安装python3及相关包
  • 学习threejs,使用设置bumpMap凹凸贴图创建褶皱,实现贴图厚度效果
  • React表单联动
  • 408数据结构:栈、队列和数组选择题做题笔记
  • sql工具!好用!爱用!
  • 嵌入式驱动开发详解3(pinctrl和gpio子系统)
  • 【C++】IO库(一):IO类
  • uniapp介入极光推送教程 超级详细
  • 阿里云整理(一)
  • 论文笔记 网络安全图谱以及溯源算法
  • 室内定位论文速递(11.23-11.25)
  • 英伟达推出了全新的小型语言模型家族——Hymba 1.5B
  • 云网络基础- TCP/IP 协议