当前位置: 首页 > news >正文

DeepSeek模型昇腾部署优秀实践

2024年12月26日,DeepSeek-V3横空出世,以其卓越性能备受瞩目。该模型发布即支持昇腾,用户可在昇腾硬件和MindIE推理引擎上实现高效推理,但在实际操作中,部署流程与常见问题困扰着不少开发者。本文将为你详细阐述昇腾 DeepSeek 模型部署的优秀实践。

01 硬件要求及组网 ​

推荐参考配置如下,部署DeepSeek-V3/R1量化模型至少需要多节点Atlas 800I A2(8*64G)服务器。本方案以DeepSeek-R1为主进行介绍,DeepSeek-V3与R1的模型结构和参数量一致,部署方式与R1相同。

Image

02 运行环境准备 ​

推荐使用镜像部署

1、镜像部署

昇腾官方在Ascend hub提供环境示例镜像,含推理部署配套软件以及模型运行脚本,用户可参考构建运行环境镜像进行部署。

镜像部署及启动参照ModelZoo指南中“加载镜像”章节,该指南中还包含“容器启动”等指引: https://gitee.com/ascend/ModelZoo-PyTorch/tree/master/MindIE/LLM/DeepSeek/DeepSeek-R1#加载镜像

镜像申请/下载(含于上述指南):昇腾镜像仓库详情

Image

2、裸机部署

根据MindIE安装指南安装软件包和运行依赖软件。

安装指南:

根据指南安装全部软件包和环境安装方案-MindIE安装指南-环境准备-MindIE1.0.0开发文档-昇腾社区

模型获取:魔乐社区

03 权重文件准备 ​

BF16权重下载: 魔乐社区

INT8量化后权重下载: 魔乐社区

如已下载BF16模型,也可采用以下步骤进行模型量化,权重BF16->INT8转换预计7~8小时。

Step1:安装ModelSlim
git clone https://gitee.com/ascend/msit.git
cd msit/msmodelslim
bash install.sh
Step2: 运行量化命令
cd msit/msmodelslim/example/DeepSeek/
python3 quant_deepseek_w8a8.py \--model_path {浮点权重路径} \--save_path {W8A8量化权重路径}

更多详细量化教程请参考 DeepSeek量化文档( https://gitee.com/ascend/msit/tree/br_noncom_MindStudio_8.0.0_POC_20251231/msmodelslim/example/DeepSeek)

Msmodelslim 代码仓:msit: 统一推理工具链入口,提供客户一体化开发工具,支持一站式调试调优 - Gitee.com

04 运行前检查 ​

服务器检查:https://gitee.com/ascend/ModelZoo-PyTorch/tree/master/MindIE/LLM/DeepSeek/DeepSeek-R1#前置准备

软件版本配套检查,含:HDK、CANN、PTA、MindIE、MindStudio

1、检查组网链接状态

  1. 检查物理链接for i in {0..7}; do hccn_tool -i $i -lldp -g | grep Ifname; done
  2. 检查链接情况for i in {0..7}; do hccn_tool -i $i -link -g ; done
  3. 检查网络健康情况for i in {0..7}; do hccn_tool -i $i -net_health -g ; done
  4. 查看侦测ip的配置是否正确for i in {0..7}; do hccn_tool -i $i -netdetect -g ; done
  5. 查看网关是否配置正确for i in {0..7}; do hccn_tool -i $i -gateway -g ; done
  6. 检查NPU底层tls校验行为一致性,建议全0for i in {0..7}; do hccn_tool -i $i -tls -g ; done | grep switch
  7.  # NPU底层tls校验行为置0操作for i in {0..7};do hccn_tool -i $i -tls -s enable 0;done

2、根据组网设置准备rank_table_file.json

使用多节点推理时,需要将包含设备ip,服务器ip等信息的json文件地址传递给底层通信算子。参考如下格式,配置rank_table_file.json:

Image

05 模型部署与配置 ​

独立模型:魔乐社区

服务化部署:

1、运行指南 https://modelers.cn/models/MindIE/DeepSeek-R1/blob/main/README.md(服务化测试)

2、服务启动 启动服务-快速开始-MindIE Service开发指南-服务化集成部署-MindIE1.0.0开发文档-昇腾社区

3、接口指引 说明-服务化接口-MindIE Service开发指南-服务化集成部署-MindIE1.0.0开发文档-昇腾社区

06 模型运行 ​

1、纯模型测试 ​

模型脚本已预制在镜像中,参照以下链接即可拉起精度测试及模型测试魔乐社区 (纯模型测试部分)

Image

2、服务化测试 ​

1、运行指南 https://gitee.com/ascend/ModelZoo-PyTorch/tree/master/MindIE/LLM/DeepSeek/DeepSeek-R1#服务化测试

2、服务启动 启动服务-快速开始-MindIE Service开发指南-服务化集成部署-MindIE1.0.0开发文档-昇腾社区

3、常用接口指引 说明-服务化接口-MindIE Service开发指南-服务化集成部署-MindIE1.0.0开发文档-昇腾社区

http://www.lryc.cn/news/544185.html

相关文章:

  • 从 Spring Boot 2 升级到 Spring Boot 3 的终极指南
  • mysql架构查询执行流程(图解+描述)
  • 20分钟 Bash 上手指南
  • 事故02分析报告:慢查询+逻辑耦合导致订单无法生成
  • vant2 vue2 两个输入框联动验证遇到的问题
  • 硬件工程师入门教程
  • 如何使用Docker搭建哪吒监控面板程序
  • python-leetcode 45.二叉树转换为链表
  • uni小程序wx.switchTab有时候跳转错误tab问题,解决办法
  • 【一起学Rust | 框架篇 | Tauri2.0框架】在Tauri应用中设置Http头(Headers)
  • STM32G473VET6 在 Keil MDK 下手动移植 FreeRTOS 指南
  • 波导阵列天线 学习笔记11双极化全金属垂直公共馈电平板波导槽阵列天线
  • DeepSeek-R1自写CUDA内核跑分屠榜:开启GPU编程自动化新时代
  • 001 Kafka入门及安装
  • 2024 年出现的 11 大数据收集趋势
  • 动态内容加载的解决方案:Selenium与Playwright对比故障排查实录
  • OSPF BIT 类型说明
  • java excel xlsx 增加数据验证
  • React + TypeScript 数据血缘分析实战
  • 魔搭 ModelScope 模型下载
  • WorldQuant Brain的专属语言——Fast Expression
  • 在低功耗MCU上实现人工智能和机器学习
  • MSSQL2022的一个错误:未在本地计算机上注册“Microsoft.ACE.OLEDB.16.0”提供程序
  • (2.26 “详细分析示例“ 暴力+位运算 最长优雅子数组)leetcode 2401
  • 【洛谷贪心算法题】P1094纪念品分组
  • 基于coze+微信小程序的ai对话
  • [Linux]项目自动化构建工具-make/Makefile
  • Dashboard-frps
  • android 新增native binder service 方式(三)
  • (IDE接入DeepSeek)简单了解DeepSeek接入辅助开发与本地部署建议