当前位置: 首页 > news >正文

Linux环境下使用 C++ 与 OpenCV 实现 ONNX 分类模型推理

实验环境:Ubuntu 20.0
推理模型:ONNX分类模型

1. 安装依赖项

首先是需要安装依赖库,如g++cmake等,如果已经安装的话可以忽略

sudo apt install -y g++
sudo apt install -y cmake
sudo apt install -y make
sudo apt install -y wget unzip

安装一些opencv的依赖项(可不安装)

sudo apt-get install build-essential libgtk2.0-dev libgtk-3-dev libavcodec-dev libavformat-dev libjpeg-dev libswscale-dev libtiff5-dev

安装一些可选库(可不安装)

# streamer支持
sudo apt install libgstreamer-plugins-base1.0-dev libgstreamer1.0-dev
# 可选的依赖
sudo apt install libpng-dev libopenexr-dev libtiff-dev libwebp-dev

在这里插入图片描述

2. 下载并安装OpenCV

可以在官网下载相应版本的OpenCV,主要有SourceGitHub两种方式下载。

2.1 Source下载

Source:https://opencv.org/releases/

点击Source进行下载:
在这里插入图片描述

2.2 GitHub下载

这里推荐安装4.9.0版本。

# 安装4.9.0版本
wget -O opencv.zip https://github.com/opencv/opencv/archive/4.9.0.zip
# 安装最新版本
wget -O opencv.zip https://github.com/opencv/opencv/archive/master.zip

下载完成后解压,并将文件夹名字改为opencv

在这里插入图片描述

3. Cmake配置和编译OpenCV

进入到下载好的opencv目录中,新建并进入目录build

cd opencv
mkdir build
cd build

使用cmake配置opencv

cmake -D CMAKE_BUILD_TYPE=Release -D OPENCV_GENERATE_PKGCONFIG=YES ..

在这里插入图片描述

说明:
-D OPENCV_GENERATE_PKGCONFIG=YES OpenCV4以上默认不使用pkg-config,该编译选项开启生成opencv4.pc文件,支持pkg-config功能

随后使用make进行编译

make -j4

在这里插入图片描述

说明:
-j4中的4指同时使用4个进程,可以根据电脑的进程数调整此值

make进行安装(可以不用sudo)

sudo make install

在这里插入图片描述

默认安装路径为:
/usr/local/bin - executable files
/usr/local/lib - libraries(.so)
/usr/local/cmake/opencv4 - cmake package
/usr/local/include/opencv4 - headers
/usr/local/share/opencv4 - other files (e.g. trained cascades in XML format)

4. 环境配置

4.1 配置pkg-config环境

opencv4.pc文件的默认路径:/usr/local/lib/pkgconfig/opencv4.pc
若此目录下没有,可以使用以下命令搜索:

sudo find / -iname opencv4.pc

可以看到在该目录下面:
在这里插入图片描述
将路径加入到PKG_CONFIG_PATH(用vim打开):

sudo vim /etc/profile.d/pkgconfig.sh

在文件后面加入下面一行:

export PKG_CONFIG_PATH=/usr/local/lib/pkgconfig:$PKG_CONFIG_PATH

保存并退出后激活:
vim保存退出的方式:按ESC 输入:wq 然后回车

# 激活
source /etc/profile

用以下命令验证是否成功:

pkg-config --libs opencv4

输出结果如下则代表成功

在这里插入图片描述

4.2 配置动态库环境

打开文件(可能为空文件):

sudo vim /etc/ld.so.conf.d/opencv4.conf

在该文件末尾加上OpenCVlib路径,保存退出:

/usr/local/lib

使配置的路径生效:

sudo ldconfig

5. 测试OpenCV(CPU)

cd/opencv/samples/cpp/example_cmake目录下,然后打开opencv_example.cpp文件,替换为下面的代码,这个代码执行的便是 加载分类ONNX模型进行推理。

这里博主使用的是OpenCV中的dnn.hpp来加载ONNX模型,当然我们也可以选择使用ONNX Runtime

#include <opencv2/opencv.hpp>
#include <opencv2/dnn.hpp>
#include <iostream>
#include <vector>
#include <cmath>// Softmax 函数
void softmax(const float* data, float* output, int size) {float max_val = -INFINITY;for (int i = 0; i < size; ++i) {max_val = std::max(max_val, data[i]);}float sum_exp = 0.0f;for (int i = 0; i < size; ++i) {sum_exp += std::exp(data[i] - max_val);}for (int i = 0; i < size; ++i) {output[i] = std::exp(data[i] - max_val) / sum_exp;}
}int main() {// 加载模型std::string modelPath = "juan_cls.onnx";cv::dnn::Net net = cv::dnn::readNetFromONNX(modelPath);if (net.empty()) {std::cerr << "无法加载模型,请检查路径是否正确" << std::endl;return -1;}// 图像输入cv::Mat img = cv::imread("img.jpg");if (img.empty()) {std::cerr << "无法加载图像 img.jpg" << std::endl;return -1;}// 预处理int inputWidth = 640;int inputHeight = 640;cv::Mat blob = cv::dnn::blobFromImage(img, 1.0, cv::Size(inputWidth, inputHeight),cv::Scalar(), true, false);net.setInput(blob);// 推理cv::Mat out = net.forward();std::cout << "Inference Shape: " << out.size << std::endl;// 假设 out 是 [1 x C x H x W]int batchSize = out.size[0];   // 1int channels = out.size[1];    // 2int height = out.size[2];      // 640int width = out.size[3];       // 640std::vector<float> avgScores(channels, 0.0f);for (int c = 0; c < channels; ++c) {double sum = 0.0;float* ptr = out.ptr<float>(0, c);  // batch=0, channel=cfor (int h = 0; h < height; ++h) {for (int w = 0; w < width; ++w) {sum += ptr[h * width + w];}}avgScores[c] = static_cast<float>(sum / (height * width));}// Softmax 归一化float probs[2];softmax(avgScores.data(), probs, 2);// 输出结果std::cout.precision(4);std::cout << std::fixed;std::cout << "\n【Result】" << std::endl;std::cout << "Cls 0 Score: " << probs[0] << std::endl;std::cout << "Cls 1 Score: " << probs[1] << std::endl;std::cout << "Cls: " << (probs[0] > probs[1] ? 0 : 1) << std::endl;return 0;
}

随后,进行编译执行:

cmake .
make
./opencv_example

cmake .后,会生成下面这些文件,根据 CMakeLists.txt 生成编译规则(如 Makefile)
在这里插入图片描述

make根据 Makefile 编译出可执行文件

在这里插入图片描述

./opencv_example运行编译好的程序,执行结果如下:

在这里插入图片描述

至此,我们便已经完成了使用C++OpenCV加载ONNX模型进行推理,接下来,我们将调用GPU来进行加速推理,敬请期待。

http://www.lryc.cn/news/578961.html

相关文章:

  • ESP32与树莓派C++、Rust开发实战
  • 在米联客4EV上部署tinyriscv
  • 高速公路闲置土地资源化利用:广西浦北互通3MW分布式光伏监控实践
  • 基于大模型的急性重症胰腺炎全流程预测与诊疗方案研究
  • 从暴力穷举到智能导航,PC本地搜索被腾讯电脑管家“拯救”
  • 云原生环境下部署大语言模型服务:以 DeepSeek 为例的实战教程
  • Linux操作系统之文件(一):重识IO
  • 解决Linux下根目录磁盘空间不足的问题
  • 基于Cox风险比例模型的会员用户流失预测研究
  • [云上玩转Qwen3系列之四]PAI-LangStudio x AI搜索开放平台 x ElasticSearch: 构建AI Search RAG全栈应用
  • CLIP heat map generation
  • vue中的toRef
  • SpringBoot控制反转
  • 无人机AI制导模块运行方式概述
  • Docker Desktop导致存储空间不足时的解决方案
  • 阿里巴巴Java开发手册(1.3.0)
  • Python数据解析与图片下载工具:从JSON到本地文件的自动化流程
  • 买卖股票的最佳时机--js 算法
  • Nginx、Spring Cloud Gateway 与 Higress 的应用场景及核心区别
  • 从0到1:我的飞算JavaAI实战之旅,效率飙升10倍不是梦!
  • 【Rancher Server + Kubernets】- Nginx-ingress日志持久化至宿主机
  • uniapp项目中node_modules\sass\sass.dart.js的体积过大怎么处理
  • LeetCode[617]合并二叉树
  • 音频调试经验总结
  • 单链表和双向链表
  • Knife4j+Axios+Redis:前后端分离架构下的 API 管理与会话方案
  • 将文件使用base64存入数据库并在微信小程序中实现文件下载
  • 修复手机液晶面板显性横向线性不良定位及相关液晶线路激光修复原理
  • 【安全工具】SQLMap 使用详解:从基础到高级技巧
  • 【深度学习机器学习】Epoch 在深度学习实战中的合理设置指南