当前位置: 首页 > news >正文

TensorRT-LLM.V1.1.0rc0:在无 GitHub 访问权限的服务器上编译 TensorRT-LLM 的完整实践

一、TensorRT-LLM有三种安装方式,从简单到难

1.NGC上的预构建发布容器进行部署,见《tensorrt-llm0.20.0离线部署DeepSeek-R1-Distill-Qwen-32B》。
2.通过pip进行部署。
3.从源头构建再部署。

       在实际开发中,我们常常面临这样的场景:本地笔记本为 Windows 系统,虽然可以访问 GitHub,但受限于硬件性能,编译大型项目(如 TensorRT-LLM)耗时过长;而公司或实验室提供的 Linux 服务器性能强劲,适合编译任务,但却因网络策略限制无法连接外网,尤其是无法访问 GitHub。

      为了充分利用服务器的高性能并绕过网络限制,本文将分享一种高效、可行的编译方案:在本地准备依赖资源,通过中转方式将代码和依赖上传至服务器,完成编译构建

二、在能连接github的服务器中,下载源代码

2.1下载源代码

#git clone https://github.com/NVIDIA/TensorRT-LLM.git

上传到服务器/home/TensorRT-LLM

2.2下载cmake和mpi4py

https://github.com/Kitware/CMake/releases/download/v3.30.2/cmake-3.30.2-linux-x86_64.tar.gz

https://github.com/mpi4py/mpi4py/archive/refs/tags/3.1.5.tar.gz

上传到服务器/home/TensorRT-LLM/docker/context,如果文件夹不存在,则创建。

2.3修改Dockerfile.multi文件

增加如下两行代码:

COPY docker/context/cmake.tar.gz /tmp/cmake-3.30.2-linux-x86_64.tar.gz

# Install mpi4py
COPY docker/context/mpi4py-3.1.5.tar.gz  /tmp/mpi4py-3.1.5.tar.gz

2.4修改install_cmake.sh文件

注释下面两行或删除。

路径:/home/TensorRT-LLM/docker/common/install_cmake.sh

#RELEASE_URL_CMAKE=${GITHUB_URL}/Kitware/CMake/releases/download/v${CMAKE_VERSION}/${CMAKE_FILE_NAME}.tar.gz
#wget --no-verbose --timeout=180 --tries=3 ${RELEASE_URL_CMAKE} -P /tmp

2.5修改install_mpi4py.sh文件

路径:/home/TensorRT-LLM/docker/common/install_mpi4py.sh

将curl -L ${RELEASE_URL} | tar -zx -C "$TMP_DIR"

改成
tar -zxf /tmp/mpi4py-3.1.5.tar.gz -C "$TMP_DIR"

2.6修改scripts/build_wheel.py文件

路径:/home/TensorRT-LLM/scripts/build_wheel.py

将下面的代码删除或注释

#    with open(project_dir / ".gitmodules", "r") as submodules_f:
#        submodules = [
#            l.split("=")[1].strip() for l in submodules_f.readlines()
#            if "path = " in l
#        ]
#    if any(not (project_dir / submodule / ".git").exists()
#           for submodule in submodules):
#        build_run('git submodule update --init --recursive')

三、编译开发环境

构建脚本有7个阶段,详见《TensorRT-LLM.V1.1.0rc1:Dockerfile.multi文件解读》。

本次构建开发环境devel  

docker buildx build --target devel  --load --platform linux/amd64   -f docker/Dockerfile.multi  -t tensorrt-llm:1.1.0rc0 .

3.1参数解释

 --target devel

表示只构建多阶段 Dockerfile 中名为 devel 的构建阶段(stage)。

使用 --target devel 意味着:只构建到 devel 阶段为止,不继续构建后面的 runtime 等阶段。

这通常用于开发调试,因为 devel 镜像包含编译工具、源码等,体积大但便于开发。

--load

将构建好的镜像加载到本地 Docker 镜像库中(即可以通过 docker images 看到)。

因为 buildx 默认使用 docker-container 或 remote 构建器时,结果不会自动进入本地镜像列表。

--platform linux/amd64

指定目标架构为 x86_64(即 amd64) 的 Linux 系统。

即使你在 ARM(如 Apple M1/M2)机器上运行,也会通过 QEMU 模拟构建出 amd64 的镜像。

常见可选值:

linux/amd64(Intel/AMD 64位)

linux/arm64(ARM 64位,如 M1/M2)

也可以指定多个:--platform linux/amd64,linux/arm64

-f docker/Dockerfile.multi

指定使用的 Dockerfile 文件路径为:项目根目录下的 docker/Dockerfile.multi。

表明这是一个多阶段构建(multi-stage) 的 Dockerfile,可能包含多个 FROM 阶段,用于分离开发、运行环境等。

 -t tensorrt-llm:1.1.0rc0

给构建出的镜像打标签(tag):

仓库名:tensorrt-llm

标签名:1.1.0rc0(表示版本 1.1.0 的 release candidate 0)

#docker images查看

http://www.lryc.cn/news/623522.html

相关文章:

  • Vue中v-show与v-if的区别
  • 负载测试与压力测试详解
  • mac电脑开发嵌入式基于Clion(stm32CubeMX)
  • 【力扣热题100】双指针—— 三数之和
  • Unity进阶--C#补充知识点--【Unity跨平台的原理】了解.Net
  • 44.【.NET8 实战--孢子记账--从单体到微服务--转向微服务】--扩展功能--集成网关--网关集成认证(三)
  • 【Java后端】Spring Boot 集成 MyBatis 全攻略
  • 反向代理、负载均衡器与API网关选型决策
  • 【牛客刷题】BM63 跳台阶:三种解法深度解析(递归/DP动态规划/记忆化搜索)
  • Shell脚本-for循环应用案例
  • 小白成长之路-k8s部署discuz论坛
  • HTTP请求参数类型及对应的后端注解
  • B站 韩顺平 笔记 (Day 21)
  • 新的“MadeYouReset”方法利用 HTTP/2 进行隐秘的 DoS 攻击
  • css中 hsl() 的用法
  • ubuntu常见问题汇总
  • 说一下分离读写
  • Linux入门指南:基础开发工具---vim
  • 谈谈对面向对象OOP的理解
  • Spring MVC 九大组件源码深度剖析(四):HandlerMapping - 请求映射的玄机
  • 问津集 #5:Crystal: A Unified Cache Storage System for Analytical Databases
  • Python自学10-常用数据结构之字符串
  • Windchill 11 Enumerated Type Customization Utility-枚举类型自定义实用程序
  • python---装饰器
  • 光耦,发声器件,继电器,瞬态抑制二极管
  • Rust Async 异步编程(一):入门
  • NestJS 手动集成TypeORM
  • USB 2.0声卡
  • Python中f - 字符串(f-string)
  • 基于Vue的个人博客网站的设计与实现/基于node.js的博客系统的设计与实现#express框架、vscode