当前位置: 首页 > news >正文

ChatGLM2-6B 部署

本文主要对 ChatGLM2-6B 模型的部署和推理过程进行介绍。

一、部署环境

在阿里云服务器上部署,具体环境如下:

modelscope:1.9.5

pytorch 2.0.1

tensorflow 2.13.0

python 3.8

cuda 118

ubuntu 20.04

CPU 8 core

内存 30 GiB

GPU NVIDIA A10 24GB

二、部署步骤

(1)下载 ChatGLM2-6B 运行代码。

git clone https://github.com/THUDM/ChatGLM2-6B.git

(2) 安装依赖环境

进入 ChatGLM2-6B 目录,执行如下命令安装依赖。

pip install -r requirements.txt

(3)修改 cli_demo.py

直接运行会出现如下错误。

ChatGLM:2024-06-20 22:18:27.454216: I tensorflow/core/util/port.cc:110] oneDNN custom operations are on. You may see slightly different numerical results due to floating-point round-off errors from different computation orders. To turn them off, set the environment variable `TF_ENABLE_ONEDNN_OPTS=0`.
2024-06-20 22:18:27.914578: I tensorflow/core/platform/cpu_feature_guard.cc:182] This TensorFlow binary is optimized to use available CPU instructions in performance-critical operations.
To enable the following instructions: AVX2 AVX512F AVX512_VNNI FMA, in other operations, rebuild TensorFlow with the appropriate compiler flags.
2024-06-20 22:18:29.304992: W tensorflow/compiler/tf2tensorrt/utils/py_utils.cc:38] TF-TRT Warning: Could not find TensorRT

在 cli_demo.py 加入如下代码。 

import os
os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'

(4)下载 ChatGLM2-6B 的模型文件

 模型下载可以从 Hugging Face 下载,也可以从魔搭社区下载,魔搭社区下载更快,魔搭社区下载如下。

#如果直接安装git-lfs报错,则手动安装,取消注释,ubuntu环境
#curl -s https://packagecloud.io/install/repositories/github/git-lfs/script.deb.sh | sudo bash
apt-get install git-lfs
git clone https://www.modelscope.cn/ZhipuAI/chatglm2-6b.git

(5)将模型文件放置到运行代码目录下 THUDM/chatglm2-6b

root@dsw-396000-594d59f669-ph78p:/mnt/workspace/ChatGLM2-6B/THUDM/chatglm2-6b# ls
config.json               configuration.json   MODEL_LICENSE                     pytorch_model-00002-of-00007.bin  pytorch_model-00004-of-00007.bin  pytorch_model-00006-of-00007.bin  pytorch_model.bin.index.json  quickstart.md  tokenization_chatglm.py  tokenizer.model
configuration_chatglm.py  modeling_chatglm.py  pytorch_model-00001-of-00007.bin  pytorch_model-00003-of-00007.bin  pytorch_model-00005-of-00007.bin  pytorch_model-00007-of-00007.bin  quantization.py               README.md      tokenizer_config.json

三、模型推理

进入ChatGLM2-6B目录,执行如下命令终端运行。

root@dsw-396000-594d59f669-ph78p:/mnt/workspace/ChatGLM2-6B# python cli_demo.py 
Loading checkpoint shards: 100%|██████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 7/7 [00:07<00:00,  1.12s/it]
欢迎使用 ChatGLM2-6B 模型,输入内容即可进行对话,clear 清空对话历史,stop 终止程序用户:

参考链接:

[1] 【已解决】oneDNN custom operations are on. You may see slightly different numerical-CSDN博客

http://www.lryc.cn/news/378151.html

相关文章:

  • 武汉工程大学24计算机考研数据,有学硕招收调剂,而专硕不招收调剂!
  • python爬虫之selenium自动化操作
  • 【漏洞复现】红帆iOffice.net wssRtSyn接口处存在SQL注入
  • 云计算【第一阶段(17)】账号和权限管理
  • 环境配置02:CUDA安装
  • Ranger配置图片及json文件预览
  • C语言 | Leetcode C语言题解之第169题多数元素
  • 常说的云VR是什么意思?与传统vr的区别
  • 华为云CodeArts API:API管理一体化平台 5月新特性上线啦!
  • ubuntu16因swap分区uuid错误启动慢排查
  • [保姆级]uniapp自定义导航栏
  • Java 桥接模式(Bridge Pattern)是设计模式中的一种结构型设计模式,桥接模式的核心思想是将抽象与实现解耦
  • 入门Ansible常用模块
  • 全能AI客户端:ChatGPT Web Midjourney Proxy,AI绘画+GPT4o对话
  • Java基础 - 练习(四)打印九九乘法表
  • 软件测试——稳定性测试:adb Monkey
  • 前端vue实战项目结构、常用编辑器vs code 配置
  • Linux系统性能优化实战经验
  • 2024广东省职业技能大赛云计算赛项实战——Ansible部署Zabbix
  • Linux—— ansible循环
  • RabbitMQ 开发指南
  • ElasticSearch学习笔记(二)文档操作、RestHighLevelClient的使用
  • python离线安装第三方库、及其依赖库(单个安装,非批量移植)
  • 昨天发的 npm 包,却因为 registry 同步问题无法安装使用
  • Redis 数据恢复及持久化策略分析
  • vscode 快捷键侧边栏
  • FreeRTOS:1、任务通知vTaskNotifyGiveFromISR保证实时性
  • 监督学习:从数据中学习预测模型的艺术与科学
  • 深入理解Java虚拟机(JVM)中的垃圾回收器
  • 视频集市新增支持多格式流媒体拉流预览