当前位置: 首页 > news >正文

NVIDIA Jetson AI边缘计算盒子

这里写自定义目录标题

  • 烧录系统
  • 安装Jetpack
  • 安装cuda
  • 安装Pytorch
  • 安装onnxruntime
  • 安装qv4l2

烧录系统

选择一台Linux系统,或者VMware的电脑作为主机,烧录系统和后面安装Jetpack都会用到。
根据供应商的指令烧录的,暂时还没验证官方烧录(后续验证补充)。

安装Jetpack

  1. 在主机安装SDK Manager,去Jetson Download下载,千万不要下官方给的最新版本(因为他们文档是以前写的,下载他们这个版本登不上)。
    在这里插入图片描述

  2. 安装指令

sudo apt install ./sdkmanager_[version]-[build]_amd64.deb
  1. 启动
sdkmanager
  1. 登录

输入NVIDIA Developer账户

在这里插入图片描述

  1. 按照以下步骤安装

安装cuda

sudo apt install nvidia-jetpack -y

检查cuda版本

# 不要使用nvidia-smi, 这个不准
nvcc -V

如果报错nvcc命令无法识别,需要将nvcc添加到环境变量

一般cuda安装在/usr/local/cuda/bin

vim ~/.bashrc
# 添加到~/.bashrc里面
export LD_LIBRARY_PATH=/usr/local/cuda/lib
export PATH=$PATH:/usr/local/cuda/bin
source ~/.bashrc

安装Pytorch

cd jetson-inference/build
./install-pytorch.sh

在这里插入图片描述

安装onnxruntime

为什么安装onnxruntime呢?

为了方便加载模型运行,可以先将torch模型转成onnx模型,再完成模型推理。

下载onnxruntime.whl,然后使用pip3 install onnxruntime_gpu-1.16.0-cp38-cp38-linux_aarch64.whl

GPU运行onnxruntime

session = onnxruntime.InferenceSession(onnx_model, provider=['CUDAExecutionProvider'])

安装qv4l2

# 安装驱动
sudo apt install qv4l2
# 加载驱动
cd /etc/realtimes
sudo insmod cam_gmsl.ko
http://www.lryc.cn/news/372594.html

相关文章:

  • React核心概念、主要特点及组件的生命周期
  • Java基础面试重点-1
  • 18. 四数之和 - 力扣
  • [vue2]深入理解路由
  • 搜维尔科技:SenseGlove为什么不同的手套尺寸对触觉技术至关重要
  • java算法:选择排序
  • helm升级部署时出现升级挂起状态处理
  • 16、架构-可观测性-事件日志详细解析
  • Java数据结构与算法(买卖股票的最佳时机二贪心算法)
  • t265 坑
  • 【LLM之RAG】Adaptive-RAG论文阅读笔记
  • 介绍react
  • 网络爬虫概述
  • 取证工作: SysTools SQL Log Analyzer, 完整的 SQL Server 日志取证分析
  • 蓝牙耳机怎么连接电脑?轻松实现无线连接
  • 4.音视频 AAC SSAASS
  • 每日5题Day24 - LeetCode 116 - 120
  • 在笔记本电脑上使用 LLMs 的 5 种方法
  • Linux内存从0到1学习笔记(8.15 MMU/IOMMU/SMMU概览)
  • Intellij IDEA中怎么配置Maven?
  • 操作系统-内存管理
  • C++中的解释器模式
  • 用 C 语言实现求补码的运算
  • python下载文件
  • JMU 数科 数据库与数据仓库期末总结(1)
  • 前端问题整理
  • 【实践功能记录6】表格列悬浮展示tooltip信息
  • AI论文速读 | 2024[SIGIR]基于大语言模型的下一个兴趣点推荐
  • Rust 实战丨通过实现 json! 掌握声明宏
  • vue+elementUI实现在表格中添加输入框并校验的功能