当前位置: 首页 > news >正文

GpuMall智算云:QwenLM/Qwen1.5/Qwen1.5-7B-Chat

Qwen 是阿里巴巴集团 Qwen 团队的大型语言模型和大型多模态模型系列,现在大型语言模型已经升级到 Qwen1.5 版本。

GpuMall智算云 | 省钱、好用、弹性。租GPU就上GpuMall,面向AI开发者的GPU云平台
无论是语言模型还是多模态模型,都在大规模的多语言和多模态数据上进行了预训练,并在优质数据上进行了后训练,以符合人类偏好。Qwen 具备自然语言理解、文本生成、视觉理解、音频理解、工具使用、角色扮演、扮演 AI 代理等功能。#autodl#恒源云#矩池云#算力云#恒源云 实例迁移#autodl 官网#autodi#GpuMall#GPU云#AutoDL#AotuDL 算力云#GpuMall智算云#AI#大数据#算力租赁#大模型#深度学习#人工智能#算力变现

GpuMall智算云 | 省钱、好用、弹性。租GPU就上GpuMall,面向AI开发者的GPU云平台icon-default.png?t=N7T8https://gpumall.com/image-details?shareImageId=SIMGEzvrcMTMjNjV&comment
最新版本 Qwen1.5 具有以下特点:

  • 拥有 6 种模型尺寸,包括 0.5B、1.8B、4B、7B、14B 和 72B;
  • 每种尺寸都有基础模型和聊天模型,聊天模型符合人类偏好;
  • 基础模型和聊天模型均支持多语言;
  • 稳定支持所有尺寸模型的 32K 上下文长度;
  • 支持工具使用、RAG、角色扮演和扮演 AI 代理。

1. 选择 Qwen1.5-7B-Chat 镜像创建实例

选择高可用云

DESC

2. 通过 JupyterLab 登陆实例

DESC


打开终端

DESC

3. 实例数据盘扩容

点击更多-扩容数据盘

DESC

Qwen1.5-7B-Chat模型大小为29G,建议扩容至40G来存储模型

DESC

4. 拷贝模型到实例数据盘

实例数据盘扩容后通过如下命令将Qwen1.5-7B-Chat模型拷贝至数据盘

time cp -rf /gm-models/Qwen1.5/Qwen1.5-7B-Chat /gm-data/

1

DESC

5. 通过 vLLM 部署模型

通过如下指令来部署模型

python -m vllm.entrypoints.openai.api_server --host 0.0.0.0 --port 8000 --gpu-memory-utilization 0.9 --max-model-len 8192 --model /gm-data/Qwen1.5-7B-Chat --tensor-parallel-size 1

1

参数说明:

 --host 0.0.0.0 										#vLLM监听的IP地址--port 8000 												#vLLM监听的端口--gpu-memory-utilization 0.9 			#占用GPU显存比例,值为 0-1之间,值越高占用显存越多--max-model-len 29856  						#上下文长度--model /gm-data/Qwen1.5-7B-Chat 	#模型文件位置--tensor-parallel-size 1 					#指定1张卡运行,如果有2张卡则写为2,以此类推

6. curl命令调用 vLLM 接口

curl http://localhost:8000/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{"model": "/gm-data/Qwen1.5-7B-Chat", "messages": [{"role": "system", "content": "你是一个乐于助人的助手"}, {"role": "user", "content": "告诉我一些关于大模型的事情"}]}'

DESC

7. 使用Python调用 vLLM 接口

需先安装openai

pip install openai

1

from openai import OpenAI
# Set OpenAI's API key and API base to use vLLM's API server.
openai_api_key = "EMPTY"
openai_api_base = "http://localhost:8000/v1"client = OpenAI(api_key=openai_api_key,base_url=openai_api_base,
)chat_response = client.chat.completions.create(model="/gm-data/Qwen1.5-7B-Chat",messages=[{"role": "system", "content": "你是一个乐于助人的助手"},{"role": "user", "content": "告诉我一些关于大模型的事情"},]
)
print("Chat response:", chat_response)

DESC

http://www.lryc.cn/news/355398.html

相关文章:

  • CentOS6.5 下编译 FreeSWITCH 1.2.23 版本
  • 2024年03月 Python(三级)真题解析#中国电子学会#全国青少年软件编程等级考试
  • Redis篇 数据的编码方式和单线程模型
  • (delphi11最新学习资料) Object Pascal 学习笔记---第13章第4节 (内存管理和接口)
  • 【记录贴】docker镜像格式报错
  • 设计模式 19 模板模式 Template Pattern
  • PHP如何实现实时计算使用者消耗服务器资源费用?
  • 在C++中自定义命名空间,在命名空间中定义string变量,同时定义一个函数实现单词逆置
  • 【leetcode 141】环形链表——快慢指针(龟兔赛跑)
  • 容器(Container)的详细介绍
  • Python 网格变换之平移、旋转、缩放、变换矩阵
  • 推荐10款优秀的组件库(一)
  • freertos的信号量和互斥锁学习笔记
  • C++基础——vector的详解与运用
  • const指针,星号判断方法
  • 移动摄像头专网需要解vlan,如何解决
  • 5.27周报
  • C-数据结构-树状存储的基本实现
  • 指纹识别经典图书、开源算法库、开源数据库
  • 嵌入式之译码器
  • 分成sum接近的2个集合,返回相对小的sum
  • SpringBoot前置知识01-SPI接口
  • 数学建模--LaTeX的基本使用
  • 授权调用: 介绍 Transformers 智能体 2.0
  • 流媒体内网穿透/组网/视频协议转换EasyNTS上云网关如何更改密码?
  • HTML5的标签(文本链接、图片路径详解)
  • React Native 之 Linking(链接)(十五)
  • Java实现图书系统
  • Git提交和配置命令
  • 已解决java.lang.ExceptionInInitializerError: 初始化程序中的异常错误的正确解决方法,亲测有效!!!