当前位置: 首页 > news >正文

[FT]chatglm2微调

1.准备工作

  • 显卡一张:A卡,H卡都可以,微调需要一张,大概显存得30~40G吧
  • 环境安装:
    • 尽量在虚拟环境安装:参见,https://blog.csdn.net/u010212101/article/details/103351853
    • 环境安装参见:https://github.com/THUDM/ChatGLM2-6B/tree/main/ptuning

2.如何微调:

参见:https://github.com/THUDM/ChatGLM2-6B/tree/main/ptuning

2.0.训练数据格式,整理成如下格式,格式1和2都行:

格式1:

{"content":"xxx","summary":"xxx"}
{"content":"xxx","summary":"xxx"}
... ...

格式2:

[
{"content":"xxx","summary":"xxx"}
{"content":"xxx","summary":"xxx"}
... ...]

2.1.训练方案-ptuning高效微调:

参见:https://github.com/THUDM/ChatGLM2-6B/blob/main/ptuning/train.sh

PRE_SEQ_LEN=128
LR=2e-2
NUM_GPUS=1torchrun --standalone --nnodes=1 --nproc-per-node=$NUM_GPUS main.py \--do_train \--train_file AdvertiseGen/train.json \--validation_file AdvertiseGen/dev.json \--preprocessing_num_workers 10 \--prompt_column content \--response_column summary \--overwrite_cache \--model_name_or_path THUDM/chatglm2-6b \--output_dir output/adgen-chatglm2-6b-pt-$PRE_SEQ_LEN-$LR \--overwrite_output_dir \--max_source_length 64 \--max_target_length 128 \--per_device_train_batch_size 1 \--per_device_eval_batch_size 1 \--gradient_accumulation_steps 16 \--predict_with_generate \--max_steps 3000 \--logging_steps 10 \--save_steps 1000 \--learning_rate $LR \--pre_seq_len $PRE_SEQ_LEN \--quantization_bit 4

注意点:

  • 将模型下载到本地,可以从modelscope或者huggingface上下载,建议直接modelscope下载,huggingface下载慢/还得科学上网,麻烦。
    • https://modelscope.cn/models/ZhipuAI/chatglm2-6b-32k/summary
  • 将上述model_name_or_path 的路径改为你本地模型路径
  • 资源紧张,下述一些参数需要调整:
  • 调节batchsize设置: per_device_train_batch_sizeper_device_eval_batch_sizegradient_accumulation_steps=batchsize,这三项酌情调整
  • 训练步数:
    • max_steps=5000步
  • max_source_length:输入的最大长度
  • max_target_length:输出的最大长度

2.2.全量微调

  • 全量微调速度比较慢,建议使用deepspeed,直接pip安装即可
  • 全量微调,几百上千条数据的情况,显存得100G以上,也即需要至少2张A800卡

deepspeed 全量微调chatglm2命令如下:

  • 参见:https://github.com/THUDM/ChatGLM2-6B/blob/main/ptuning/ds_train_finetune.sh
LR=1e-4MASTER_PORT=$(shuf -n 1 -i 10000-65535)deepspeed --num_gpus=4 --master_port $MASTER_PORT main.py \--deepspeed deepspeed.json \--do_train \--train_file AdvertiseGen/train.json \--test_file AdvertiseGen/dev.json \--prompt_column content \--response_column summary \--overwrite_cache \--model_name_or_path THUDM/chatglm2-6b \--output_dir ./output/adgen-chatglm2-6b-ft-$LR \--overwrite_output_dir \--max_source_length 64 \--max_target_length 64 \--per_device_train_batch_size 4 \--per_device_eval_batch_size 1 \--gradient_accumulation_steps 1 \--predict_with_generate \--max_steps 5000 \--logging_steps 10 \--save_steps 1000 \--learning_rate $LR \--fp16
  • 注意点和上述基本一致,至于deepspeed高级配置如何做,这里挖个坑,后续佛系更新

2.3.其他微调,参见官方教程

https://github.com/THUDM/ChatGLM2-6B/tree/main/ptuning

3.推理加速

  • 按照fastllm,速度提升3成~4成吧
  • 教程参见:https://github.com/ztxz16/fastllm
http://www.lryc.cn/news/307037.html

相关文章:

  • AI赋能Oracle DBA:以自然语言与Oracle数据库互动
  • Django学习记录04——靓号管理整合
  • AD9226 65M采样 模数转换
  • 远程控制桌面,让电脑办公更简单
  • 猫头虎分享已解决Bug || 网络连接问题:NetworkError: Failed to fetch
  • Layer1 明星项目 Partisia Blockchain 何以打造互操作、可创新的数字经济网络
  • 用CSS制作弧形卡片的三种创意方法!
  • 守护健康之光 —— 小脑萎缩患者的生活指南
  • CSS选择器:让样式精确命中目标
  • 前端不传被删记录的id怎么删除记录,或子表如何删除记录
  • axios的基本特性用法
  • 打印水仙花数---c语言刷题
  • springboot基础(82):分布式定时任务解决方案shedlock
  • 【Golang】Gorm乐观锁optimisticlock的使用
  • Apache Doris 发展历程、技术特性及云原生时代的未来规划
  • 2024-02-26(Spark,kafka)
  • RubyMine 2023:让Ruby编程变得更简单 mac/win版
  • 低功耗设计——门控时钟
  • 《凤凰架构》-本地事务章节 读书笔记
  • ruby对比python,30分钟教程
  • C语言——oj刷题——判断闰年
  • Git笔记——3
  • C++面试 -操作系统-安全能力:死锁的危害、出现原因、解决方法
  • 台湾香港澳门媒体宣发稿报道有哪些平台资源,跨境出海推广新闻营销公司告诉你
  • Python分支和循环结构及其应用(文末送书)
  • 机器学习——线性代数中矩阵和向量的基本介绍
  • 基于R语言的Meta分析【全流程、不确定性分析】方法与Meta机器学习技术应用
  • 蜘蛛蜂优化算法SWO求解不闭合MD-MTSP,可以修改旅行商个数及起点(提供MATLAB代码)
  • Java架构师之路六、高并发与性能优化:高并发编程、性能调优、线程池、NIO、Netty、高性能数据库等。
  • MySQL-行转列,链接查询