当前位置: 首页 > news >正文

在Windows上用Llama Factory微调Llama 3的基本操作

这篇博客参考了一些文章,例如:教程:利用LLaMA_Factory微调llama3:8b大模型_llama3模型微调保存-CSDN博客

也可以参考Llama Factory的Readme:GitHub - hiyouga/LLaMA-Factory: Unify Efficient Fine-Tuning of 100+ LLMsUnify Efficient Fine-Tuning of 100+ LLMs. Contribute to hiyouga/LLaMA-Factory development by creating an account on GitHub.icon-default.png?t=N7T8https://github.com/hiyouga/LLaMA-Factory?tab=readme-ov-file#installation首先将Llama Factory clone到本地:GitHub - hiyouga/LLaMA-Factory: Unify Efficient Fine-Tuning of 100+ LLMs 

其次创建一个conda环境:

conda create -n llama_factory python=3.10

激活环境后首先安装pytorch,具体参考这个页面:Start Locally | PyTorch,例如:

conda install pytorch torchvision torchaudio pytorch-cuda=12.1 -c pytorch -c nvidia

而后进入到LLaMA-Factory文件夹,参考其Readme,运行:

pip install -e .[torch,metrics]

同时,按照其Readme,在Windows系统上还需要运行:

pip install https://github.com/jllllll/bitsandbytes-windows-webui/releases/download/wheels/bitsandbytes-0.41.2.post2-py3-none-win_amd64.whl

具体原因我就不展开讲了。然后依次运行:

Set CUDA_VISIBLE_DEVICES=0
Set GRADIO_SHARE=1
llamafactory-cli webui

就可以看到其webui了。不过这时候还没有模型参数文件,对于国内用户而言,可以在这里https://modelscope.cn/organization/LLM-Researchicon-default.png?t=N7T8https://modelscope.cn/organization/LLM-Research

进行下载,例如可以下载Llama3中文版本(如果没有git lfs可以用前两个命令安装):

conda install git-lfs
git-lfs install
git lfs clone https://www.modelscope.cn/LLM-Research/Llama3-8B-Chinese-Chat.git

下载好之后,可以构造自己的微调数据集,具体而言,按照这里的介绍:

https://github.com/hiyouga/LLaMA-Factory/tree/main/data

Llama Factory支持alpaca and sharegpt的格式,前者类似于这种格式:

[{"instruction": "human instruction (required)","input": "human input (optional)","output": "model response (required)","system": "system prompt (optional)","history": [["human instruction in the first round (optional)", "model response in the first round (optional)"],["human instruction in the second round (optional)", "model response in the second round (optional)"]]}
]

我们构造数据集的时候,最简单的方法就是只构造instruction和output。把生成的json文件放到LLaMA-Factory\data目录下,然后打开dataset_info.json文件,增加这个文件名记录即可,例如我这里增加:

  "private_train": {
    "file_name": "private_train.json"
  },

选择自己的私有数据集,可以预览一下,然后就可以开始训练了。

训练完成后切换到Export,然后在上面的“微调方法”——“检查点路径”中选择刚才存储的目录Train_2024_xxxx之类,然后指定导出文件的目录,然后就可以导出了。

导出之后我们可以加载微调之后的模型并测试了。当然,如果训练数据集比较小的话,测试的效果也不会太好。如果大家只是想对微调效果和特定问题进行展示,可以训练模型到过拟合,呵呵呵。

就记录这么多。

http://www.lryc.cn/news/368841.html

相关文章:

  • 01——生产监控平台——WPF
  • 33、matlab矩阵分解汇总:LU矩阵分解、Cholesky分解和QR分解
  • C语言——使用函数创建动态内存
  • 【PL理论】(16) 形式化语义:语义树 | <Φ, S> ⇒ M | 形式化语义 | 为什么需要形式化语义 | 事实:部分编程语言的设计者并不会形式化语义
  • 前端杂谈-警惕仅引入一行代码言论
  • 有关cookie配置的一点记录
  • Oracle如何定位硬解析高的语句?
  • Linux卸载残留MySQL【带图文命令巨详细】
  • 4句话学习-k8s节点是如何注册到k8s集群并且kubelet拿到k8s证书的
  • 2024全国大学生数学建模竞赛优秀参考资料分享
  • QPS,平均时延和并发数
  • 【Python核心数据结构探秘】:元组与字典的完美协奏曲
  • Golang | Leetcode Golang题解之第137题只出现一次的数字II
  • Spring和SpringBoot的特点
  • 怎么使用join将数组转为逗号分隔的字符串
  • Web前端博客论坛:构建、运营与用户体验的深度解析
  • Java从入门到放弃
  • 基于51单片机的车辆动态称重系统设计
  • C语言之常用字符串函数总结、使用和模拟实现
  • 【JMeter接口测试工具】第二节.JMeter项目实战(上)【实战篇】
  • Ansible——fetch模块
  • HTTP常见响应状态码
  • 如何制定工程战略
  • 认识和使用 Vite 环境变量配置,优化定制化开发体验
  • Java18新特性总结
  • 理解 Java 中的 `final` 关键字
  • 磁盘未格式化:深度解析、恢复方案及预防之道
  • JWT 从入门到精通
  • 31-捕获异常(NoSuchElementException)
  • 使用Spring Boot设计对象存储系统