【云端深度学习训练与部署平台】AutoDL连接VSCode运行深度学习项目的全流程
目录
📌 摘要:AutoDL平台使用全流程指南
一、AutoDL介绍
1.1 简介
1.2 核心功能
1.3 AutoDL 的优势
1.4 示例场景
二、租用云服务器
2.1 进入官网
2.2 选择服务器
2.3 查看配置信息
扩展知识点:AutoDL 平台中「1卡」与「2卡」
1、什么是「1卡」「2卡」?
2、二者的核心区别
3、举个例子
4、一句话总结
三、VScode连接服务器
3.1 VScode中下载Remote-SSH插件
3.2 连接服务器
3.3 查看数据盘位置
3.4 安装高级 GPU 监控工具
📌 摘要:AutoDL平台使用全流程指南
本文详细介绍了 AutoDL 平台的使用方法,从平台简介、服务器租用、VSCode远程连接,到高级GPU监控工具的安装,适合中文开发者快速上手深度学习任务。
一、AutoDL介绍
1.1 简介
AutoDL 是一个面向开发者和 AI 初学者的 深度学习在线训练平台,支持在线上传数据、选择模型、训练微调,并可生成 API 进行部署调用,目标是**“让训练大模型像点外卖一样简单”**。
AutoDL 是一个适合中文开发者使用的“云端深度学习训练与部署平台”,零代码快速上手模型微调与应用上线,非常适合教学、实验、原型开发和中小企业使用。
1.2 核心功能
功能 | 说明 |
---|---|
🖥 在线训练 | 无需本地安装环境,网页端即可上传数据、启动训练 |
🧠 模型支持 | 支持 BERT、LLaMA、ChatGLM、Qwen、Whisper 等多种模型 |
💾 数据上传 | 可直接上传 CSV、JSON、TXT 等格式数据 |
🔁 微调支持 | 支持分类、生成、问答、指令微调等任务类型 |
🚀 快速部署 | 一键部署 API,可用于网页、微信小程序等调用 |
📊 可视化 | 提供训练过程图表、模型评估指标、混淆矩阵等展示 |
🛠 自定义配置 | 可调学习率、batch size、LoRA 参数等(专业模式) |
1.3 AutoDL 的优势
优点 | 描述 |
---|---|
✅ 零环境配置 | 适合没有本地算力或不懂 PyTorch 的用户 |
✅ 中文友好 | 全中文界面,适合国内初学者与中小团队 |
✅ 轻量微调 | 支持 LoRA、Prefix 等参数高效微调方式 |
✅ 模型上线快 | 训练完成后生成接口或网页 demo,可直接上线 |
✅ 自动化高 | 类似“AI 训练托管平台”,开箱即用、简化流程 |
1.4 示例场景
-
上传客服问答语料,微调一个 ChatGLM 模型,生成客服对话 API
-
上传情感评论数据(正/负),微调 BERT 做情感分类
-
上传语音音频,使用 Whisper 模型完成语音转文本
-
上传公司文档,用向量检索 + 大模型问答做企业知识助手
二、租用云服务器
2.1 进入官网
AUtoDL官网地址:AutoDL算力云 | 弹性、好用、省钱。租GPU就上AutoDL
登录账号
2.2 选择服务器
选择之前,先去充一定额度,选择【自定义】,根据情况充即可,可以一点一点充;
选择服务器
选择【基础镜像】,其余步骤如下图
创建成功,
2.3 查看配置信息
1、点击jupterLab,进入开发界面;
2、选择【终端】
该界面可用来对服务器进行操作;
3、查看服务器配置信息
nvidia-smi
可以发现,显卡是3090,显存是24GB
扩展知识点:AutoDL 平台中「1卡」与「2卡」
1、什么是「1卡」「2卡」?
在 AutoDL 平台中,「卡」指的是 显卡数量(GPU)。
训练任务会分配对应数量的显卡资源给你:
配置 | 含义 | 适合场景 |
---|---|---|
1卡 | 分配 1 块 GPU(如 A100-80G) | 小模型微调、小数据集、单任务 |
2卡 | 分配 2 块 GPU(并行训练) | 大模型微调、大数据集、训练提速 |
2、二者的核心区别
对比项 | 1卡 | 2卡 |
---|---|---|
💻 计算能力 | 单块 GPU,算力有限 | 双卡并行,训练更快 |
🧠 可训练模型大小 | 支持中小模型(如 BERT、小型 LLaMA) | 支持大模型(如 ChatGLM3-6B、Qwen-7B) |
⏱ 训练速度 | 相对较慢 | 更快(尤其在大 batch / 多样本时) |
🧾 资源费用 | 较低(适合试验) | 较高(更适合正式训练) |
🧰 编程复杂度 | 逻辑简单,无需分布式 | 背后自动使用 PyTorch DDP(无需你手动处理) |
3、举个例子
-
你想微调一个 BERT 模型做情感分类,只有几千条文本 → 用 1卡 就足够
-
你想微调 ChatGLM-6B 模型,样本几万条,每轮训练很慢 → 建议用 2卡
4、一句话总结
1卡 = 基础版:适合中小模型、原型验证;2卡 = 加强版:适合大模型、大数据,更快更强。
三、VScode连接服务器
前提:安装好VS Code
3.1 VScode中下载Remote-SSH插件
Remote-SSH 是 VSCode 插件,用于通过 SSH 远程连接服务器,在本地界面中像操作本地一样编辑、运行、调试远程代码。
3.2 连接服务器
到Autodl中,复制【登录指令】
回到vscode→电脑图标→点击SSH后的“+”图标 →粘贴复制的【登录指令】
这时会出现.ssh的配置路径,选择电脑默认账户即可;
选择完后,右下角出现连接弹窗,点击【连接】
点击连接后,会出现一个新的VScode窗口,就是服务器窗口
再到Autodl中复制服务器【密码】
新VScode窗口(服务器窗口):
选择【Linux】→继续→粘贴【密码】
打开文件→确定
在输入框中在粘贴一次【密码】
到这里,服务器就连接成功了,之后就可以通过服务器做开发了。
3.3 查看数据盘位置
在租用不同的服务器时,文件结构可能会有所不同,我们可以直接通过终端查看数据盘和系统盘的位置,因为在做微调时,一般是把模型存放在数据盘中。
3.4 安装高级 GPU 监控工具
#安装高级 GPU 监控工具
pip install nvitop#启动工具
nvitop
在终端输入【pip install nvitop】 ,执行安装依赖
输入【nvitop】,启动工具后,就能够通过终端实时查看GPU的实时状态了;
启动该工具后,该终端也将无法再进行操作,可以新建一个【终端】执行其他操作;