当前位置: 首页 > news >正文

[C++][cmake]使用C++部署yolov12目标检测的tensorrt模型支持图片视频推理windows测试通过

最近悄悄出了yolov12框架,标志着目标检测又多了一个检测利器,于是尝试在windows下部署yolov12的tensorrt模型,并最终成功。

重要说明:安装环境视为最基础操作,博文不做环境具体步骤,可以百度查询对应安装步骤即可。

测试通过环境:

vs2019

windows 10 RTX2070 8G显存

cmake==3.30.1

cuda11.8.0+cudnn8.9.7

Tensorrt==8.6.1.6

opencv==4.9.0

anaconda3+python3.10

torch==2.5.1+cu124

部署过程:

部署最费时间是安装环境。首先确保自己电脑是win10或者win11并确保电脑有一块nvidia显卡。查看自己显卡就是打开任务管理器(win10是ctrl+alt+delete,win11是ctrl+shift+ESC),在性能里面查看,如下图

785b7ad428034221a4ff1a167855b167.png

如果看到GPU0和GPU1等等表示有显卡,但是需要看到NVIDIA字样才能表示有独立显卡。其他是AMD显卡或者核心显卡,这些都是不能用于cuda的,也就是电脑不支持tensorrt加速和cuda使用的。

首先需要大家安装好VS2019或者VS2022,还有如下环境,由于安装包很多需要去官方搜索下载,需要自己安装,其中版本可以有区别,但是如果快速复现这个项目,最好安装位一致版本这样更快复现出项目。

cmake==3.30.1

cuda11.8.0+cudnn8.9.7

Tensorrt==8.6.1.6

opencv==4.9.0

anaconda3+python3.10

torch==2.5.1+cu124

假设大家安装好上面的环境。下面具体怎么部署,首先去yolov12官方仓库下载yolo12模型,这样下载yolov12n.pt

然后将pt模型放进项目里面,切换自己安装好的yolov12环境里面并切换到项目目录,使用下面命令直接转换

yolo export model=yolov12n.pt format=onnx dynamic=False opset=12

得到onnx模型以后我们开始编译源码。

首先我们修改CMakeLists.txt文件,将源码里面opencv路径和tensorrt路径修改成自己路径

# Find and include OpenCV

set(OpenCV_DIR "D:\\lufiles\\opencv490\\build\\x64\\vc16\\lib")

# Set TensorRT path if not set in environment variables

set(TENSORRT_DIR "D:\\lufiles\\TensorRT-8.6.1.6")

然后执行

mkdir build

cd build

cmake ..

之后去build文件夹找到sln文件用vs打开它,然后选择x64 release,并选中ALL_BUILD右键单击选择生成

之后build\Release文件夹下面有个yolov12-tensorrt.exe生成。之后我们开始转换onnx模型到tensorrt模型,执行命令

trtexec --onnx=yolov12n.onnx --saveEngine=yolov12n.engine --fp16

稍等20多分钟后会自动生成yolov12n.engine文件.

下面我们开始测试图片

yolov12-tensorrt.exe yolov12n.engine "test.jpg"

然后测试视频

yolov12-tensorrt.exe yolov12n.engine "car.mp4"

特别注意:

  1. tensorrt模型依赖于硬件,所以不是通用的需要在电脑重新转换,否则可能无法使用;
  2. 如需要二次开发,需要读懂调用代码,需要有一定c++基础才行,否则无法进行二次开发。
http://www.lryc.cn/news/542838.html

相关文章:

  • Uppy - 免费开源、功能强大的新一代 web 文件上传组件,支持集成到 Vue 项目
  • 【游戏——BFS+分层图】
  • SSL 证书是 SSL 协议实现安全通信的必要组成部分
  • Spring 源码硬核解析系列专题(七):Spring Boot 与 Spring Cloud 的微服务源码解析
  • 嵌入式开发:傅里叶变换(5):STM32和Matlab联调验证FFT
  • C# 根据Ollama+DeepSeekR1开发本地AI辅助办公助手
  • 洛谷 P8705:[蓝桥杯 2020 省 B1] 填空题之“试题 E :矩阵” ← 卡特兰数
  • 我的AI工具箱Tauri版-FluxCharacterGeneration参考图像生成人像手办(Flux 版)
  • DeepSeek开源周Day2:DeepEP - 专为 MoE 模型设计的超高效 GPU 通信库
  • 51单片机-串口通信编程
  • python实现基于文心一言大模型的sql小工具
  • deepseek 导出导入模型(docker)
  • 前言:什么是大模型微调
  • TCPDF 任意文件读取漏洞:隐藏在 PDF 生成背后的危险
  • unity学习53:UI的子容器:面板panel
  • 水环境水质在线监测系统解决方案
  • HBuilder X中,uni-app、js的延时操作及定时器
  • BigDecimal线上异常解决方案:避免科学计数法输出的坑
  • 【C语言】指针笔试题
  • 深入理解Redis:数据类型、事务机制及其应用场景
  • RGMII(Reduced Gigabit Media Independent Interface)详解
  • 学习Flask:Day 1:基础搭建
  • XTOM工业级蓝光三维扫描仪在笔记本电脑背板模具全尺寸检测中的高效精准应用
  • 网络安全 机器学习算法 计算机网络安全机制
  • 分享些常用的工具类
  • VUE四:Vue-cli
  • 以下是自定义针对 Vite + TypeScript 项目的完整路径别名配置流程:
  • LangGraph系列教程:基于状态构建上下文感知的AI系统
  • 图像处理、数据挖掘、数据呈现
  • 利用python和gpt写一个conda环境可视化管理工具