当前位置: 首页 > news >正文

vllm专题(一):安装-GPU

vLLM 是一个 Python 库,支持以下 GPU 变体。选择您的 GPU 类型以查看供应商特定的说明:
1. NVIDIA CUDA
vLLM 包含预编译的 C++ 和 CUDA(12.1)二进制文件。
2. AMD ROCm
vLLM 支持配备 ROCm 6.3 的 AMD GPU。
注意
此设备没有预构建的 wheel 包,因此您必须使用预构建的 Docker 镜像或从源代码构建 vLLM。
3. Intel XPU
vLLM 初步支持在 Intel GPU 平台上进行基本模型推理和服务。
注意
此设备没有预构建的 wheel 包或镜像,因此您必须从源代码构建 vLLM。

一、要求

  • 操作系统:Linux
  • Python:3.9 – 3.12
    1. NVIDIA CUDA
  • GPU:计算能力 7.0 或更高(例如 V100、T4、RTX20xx、A100、L4、H100 等)
    2. AMD ROCm
  • GPU:MI200s (gfx90a)、MI300 (gfx942)、Radeon RX
http://www.lryc.cn/news/539984.html

相关文章:

  • php文件包含
  • 升级 SpringBoot3 全项目讲解 — Spring Boot 3 中如何发Http请求?
  • 分类预测 | MFO-LSSVM飞蛾扑火算法优化最小二乘支持向量机多特征分类预测Matlab实现
  • MyBatis Plus核心功能
  • nginx ngx_http_module(10) 指令详解
  • 【ENSP】链路聚合的两种模式
  • Windows环境安装部署minimind步骤
  • 让大模型帮我设计crnn网络及可运行demo,gpt4o豆包qwendeepseek-r1
  • 代码随想录-- 第一天图论 --- 岛屿的数量
  • Mybatis MyBatis框架的缓存 一级缓存
  • Weboffice在线Word权限控制:限制编辑,只读、修订、禁止复制等
  • RT-Thread+STM32L475VET6实现呼吸灯
  • 【Web前端开发精品课 HTML CSS JavaScript基础教程】第二十四章课后题答案
  • 记录 pycharm 无法识别提示导入已有的模块解决方案 No module named ‘xxx‘
  • 网工项目实践2.6 广域网需求分析及方案制定
  • 【架构】分层架构 (Layered Architecture)
  • 玩客云 IP查找
  • Android - Handler使用post之后,Runnable没有执行
  • MyBatis-Plus之通用枚举
  • 基于Spring Boot的图书管理系统设计与实现(LW+源码+讲解)
  • 如何在 VS Code 中快速使用 Copilot 来辅助开发
  • 12.1 Android中协程的基本使用
  • 【黑马点评优化】2-Canel实现多级缓存(Redis+Caffeine)同步
  • php-fpm
  • Python3测试开发面试题2
  • qt + opengl 给立方体增加阴影
  • Webpack,Vite打包的理解
  • Vue 3 30天精进之旅:Day 25 - PWA支持
  • 机器学习-生命周期
  • 大道至简 少字全意 易经的方式看 缓存 mybatis缓存 rendis缓存场景 案例