当前位置: 首页 > news >正文

大模型部署、nvidia-smi、token数

在docker容器里面使用vllm部署兼容openai的服务器

将vllm的openai服务在容器中启动:

Dockerfile:

由于大模型文件异常大,因此将大模型文件进行挂载,而不是直接复制到容器内。

FROM vllm/vllm-openai:latestWORKDIR /appCMD ["--model", "/app/.", \ "--tensor-parallel-size", "2", \"--port", "8888", \"--served-model-name", "glm-v2", \"--max-model-len", "13312", \"--api-key", "glm_lihai"]

docker-compose.yml:

需要设置shm_size,docker默认的shm_size很小。

docker里面使用gpu,需要安装NVIDIAContainerToolkit驱动。

version: '3.8'services:llm-server:build: .container_name: vllm-openai-server# 映射端口ports:- "8888:8888"shm_size: '4gb'# 挂载模型目录volumes:- ./Models/Qwen3/Qwen3-32B/:/app# 配置 GPU 资源deploy:resources:reservations:devices:- driver: nvidiadevice_ids: ['0', '1'] # 指定使用 GPU 0 和 1capabilities: [gpu]restart: unless-stopped

测试:

curl http://localhost:8888/v1/completions \-H "Content-Type: application/json" \-H "Authorization: Bearer glm_lihai" \-d '{"model": "glm_v2","prompt": "你是谁","max_tokens": 500,"temperature": 0}'

nvidia-smi的GPU利用率

在两块L20上部署14b模型,推理总是占满GPU利用率。

经同学大佬的解答终于明白了:

nvidia-smi所显示的GPU利用率本质上是一个时间占用率指标,它仅反映在过去一秒内GPU是否有计算单元处于工作状态,而非衡量所有计算核心是否满负荷运行。因此,即使该指标达到了100%,也并不意味着GPU的计算能力已被完全榨干,而是表明至少一个SM(Streaming Multiprocessor,流多处理器)在执行任务,其余核心可能仍处于闲置或负载状态。这种特性导致在实际应用中,即便仅占用部分SM,利用率仍可能显示100%。

而在vllm等推理框架中,只要显存充足,GPU往往也可以进一步提升吞吐量。

而且,GPU在处理稀疏张量等任务时,部分计算可能属于无效或填充操作,这些操作会被计入利用率,但当任务量增加后,这些无用计算可转化为有效计算,从而在利用率不变的情况下提升实际性能。

使用白嫖的L20进行测试。

python3 -m venv myvenv
source myvenv/bin/activepip install vllm
pip install modelscope

安装Qwen3-0.6b:

from modelscope import snapshot_download
model_dir = snapshot_download('Qwen/Qwen3-0.6B',cache_dir="./model")

model目录下:

vllm serve Qwen/Qwen3-0.6B/

跑下面的curl测试,并查看nvidia-smi。

curl http://localhost:8000/v1/completions \-H "Content-Type: application/json" \-d '{"model": "Qwen/Qwen3-0.6B/","prompt": "你是一个计算机专家,请给出什么时候实现AGI,请逐步给出分析和原因","max_tokens": 500,"temperature": 0}'

最终发现,没有加其他设置,显存拉满,gpu在跑上面的推理时的利用率为百分之七十多。

由此可以确认,与总结一样。

今天一大半时间都在想用nvidia-smi查看的GPU利用率是怎么回事,无论是用大模型还是搜索引擎(国内),都没有找到为什么会这样。直到问了同学才恍然大悟,之后就在搜索引擎中可以搜索到,大模型也可以得到正确的方向。大模型虽然能力很强了,但还是不如有社交属性的人。

max_tokens 和max-model-len 区别

max_tokens是调用大模型时给出的参数,表明大模型要回答最多max_tokens个token,是单次请求的动态参数。

max-madel-len这个是模型上下文窗口的最大长度限制,即模型能处理的最大输入和输出token数量,是模型或服务层的静态配置。

max_tokens影响生成内容的完整性,避免回答中断,max-model-len影响模型的整体处理能力,如长文本任务是否可行。

max-model-lenmax_tokens的上限约束。提示词token + max_tokens < max-model-len。

在调用大模型时,存在系统提示词和用户提示词,一般提示词token是两者的相加,系统提示词和用户提示词的开始和结束以特殊分隔符进行分隔。

感谢同学大佬解答。

GLM-4.5

快速入门 - vLLM 文档

🤔NVIDIA-SMI的GPU利用率真相 (baidu.com)

http://www.lryc.cn/news/610034.html

相关文章:

  • Linux服务器管理MySQL数据库的常见命
  • 09 Linux基础(8.4)
  • git 项目拉取 SSH密钥配置
  • ESDocValues机制
  • CCES软件的Workspace设置问题
  • 牛客网之华为机试题:HJ24 合唱队(动态规划)
  • HFSS许可监控与分析
  • 向量空间模型
  • day23-线程篇(一)
  • 什么是内容管理系统?
  • 基于实时音视频技术的远程控制传输SDK的功能设计
  • mysql中使用LIMIT分页查询数据出现深分页的原因
  • 【音视频】WebRTC 一对一通话-实现概述
  • SpringMVC在前后端分离架构中的执行流程详解
  • AI绘画-Stable Diffusion-WebUI的ControlNet用法
  • STM32F103C8T6 BC20模块NBIOT GPS北斗模块采集温湿度和经纬度发送到EMQX
  • 攻防世界-easyphp-lever1
  • k8s常见问题
  • 【ECCV2024】AdaCLIP:基于混合可学习提示适配 CLIP 的零样本异常检测
  • Design Compiler:高层次优化与数据通路优化
  • 【Spring Boot 快速入门】六、配置文件
  • Java 发送 HTTP POST请求教程
  • Scikit-learn - 机器学习库初步了解
  • MoonBit Pearls Vol.04:用MoonBit 探索协同式编程
  • Spring IoC容器与Bean管理
  • GPTs——定制的小型智能体
  • 白杨SEO:百度搜索开放平台发布AI计划是什么?MCP网站红利来了?顺带说说其它
  • [Oracle] || 连接运算符
  • 关于如何自定义vscode(wsl连接linux)终端路径文件夹文件名字颜色的步骤:
  • 【PHP】获取图片的主要颜色值RGB值