当前位置: 首页 > news >正文

OnnxRuntime TensorRT OpenCV::DNN性能对比(YoloV8)实测

1. 前言

之前把ORT的一套推理环境框架搭好了,在项目中也运行得非常愉快,实现了cpu/gpu,fp32/fp16的推理运算,同onnx通用模型在不同推理框架下的性能差异对比贴一下,记录一下自己对各种推理框架的学习状况

YoloV8模型大小
模型名称参数量
NANO3.2M
......

2. CPU篇

CPU推理框架性能比较
框架推理耗时(i5-11400H@2.70GHz)/ms
OnnxRuntime95
DNN80

 

3. GPU篇

 

4. 总结

cpu选择onnxruntime或者dnn都可以,建议选择ort.gpu选择tensorrt,如果有兼容需求就只能选择onnxruntime了.

不得不说,gpu推理上TRT把ORT薄纱了,不需要warm-up,对工业生产环境非常友好,因为在实际生产环境中,都不是实时推理,而是有间隔的推理,ORT在一段间隔时间后cuda性能会有所衰减,当然也可能是我还没摸透ort这个框架,欢迎大佬指正.

http://www.lryc.cn/news/99239.html

相关文章:

  • 【QT 网络云盘客户端】——获取用户文件列表信息
  • 从0到1,无代码开发如何简化产品创新流程
  • select、epoll 的快速核心理解
  • HTTP和HTTPS的区别
  • 分布式异步任务处理组件(二)
  • Jenkins 拉取 GitHub 私有仓库失败问题
  • 小程序 多层次对象数组的赋值、动态赋值
  • angular踩坑
  • C#时间轴曲线图形编辑器开发1-基本功能
  • elasticsearch查询操作(DSL语句方式)
  • JavaScript详解
  • 电缆振荡波局部放电检测定位技术
  • AI Chat 设计模式:10. 组合模式
  • 【Nginx12】Nginx学习:HTTP核心模块(九)浏览器缓存与try_files
  • 【1】-Locust性能测试工具介绍与安装
  • 基于拉格朗日-遗传算法的最优分布式能源DG选址与定容(Matlab代码实现)
  • 【已解决】jupyter notebook里已经安装了第三方库,还是提示导入失败
  • Mybatis使用collection映射一对多查询分页问题
  • Linux/Windows路由管理
  • openpnp - 设备矫正的零碎记录
  • Linux内核中的链表、红黑树和KFIFO
  • 【C++】做一个飞机空战小游戏(二)——利用getch()函数实现键盘控制单个字符移动
  • Android 设备兼容性使用(详细版)
  • React 中的常见 API 和生命周期函数
  • 神经网络中遇到的 python 函数(Pytorch)
  • 分布式事务及解决方案
  • 【宏定义】——编译时校验
  • C#学习系列之System.Windows.Data Error: 40报错
  • 【java安全】RMI
  • rcu链表综合实践