当前位置: 首页 > article >正文

LLaMaFactory - 支持的模型和模板 常用命令

一、 环境准备

激活LLaMaFactory环境,进入LLaMaFactory目录

cd LLaMA-Factoryconda activate llamafactory

 下载模型

#模型下载
from modelscope import snapshot_download
model_dir = snapshot_download('Qwen/Qwen2.5-0.5B-Instruct')

二、启动一个  Qwen3-0.6B 模型的网页聊天界面

使用 LLaMA-Factory 工具启动一个基于 Qwen3-0.6B 模型的网页聊天界面。


CUDA_VISIBLE_DEVICES=0 llamafactory-cli webchat \--model_name_or_path /root/.cache/modelscope/hub/models/Qwen/Qwen3-0.6B \--template qwen

  • CUDA_VISIBLE_DEVICES=0

    • 指定使用 第0号GPU(单卡运行),屏蔽其他GPU设备。

  • llamafactory-cli webchat

    • 调用 llamafactory 工具的 CLI 接口,启动 网页聊天服务(Web Chat)。

  • --model_name_or_path /root/.cache/modelscope/hub/models/Qwen/Qwen3-0.6B

    • 加载模型路径:

      • 从 ModelScope Hub 的本地缓存(/root/.cache/modelscope)加载 Qwen3-0.6B 模型(60亿参数版本)。

      • 若本地无缓存,会先自动下载模型。

  • --template qwen

    • 指定使用 Qwen系列专用对话模板,确保模型按Qwen的指令格式处理输入输出(如特殊token和角色标记)。

在LLM(大语言模型)应用中,template(模板) 是控制模型输入输出格式的关键配置,直接影响对话质量和行为。在LLamaFactory中不同模型所使用的模板也会不同。

ModelModel sizeTemplate
Baichuan 27B/13Bbaichuan2
BLOOM/BLOOMZ560M/1.1B/1.7B/3B/7.1B/176B-
ChatGLM36Bchatglm3
Command R35B/104Bcohere
DeepSeek (Code/MoE)7B/16B/67B/236Bdeepseek
DeepSeek 2.5/3236B/671Bdeepseek3
DeepSeek R1 (Distill)1.5B/7B/8B/14B/32B/70B/671Bdeepseekr1
Falcon7B/11B/40B/180Bfalcon
Gemma/Gemma 2/CodeGemma2B/7B/9B/27Bgemma
Gemma 31B/4B/12B/27Bgemma3/gemma (1B)
GLM-4/GLM-4-0414/GLM-Z19B/32Bglm4/glmz1
GPT-20.1B/0.4B/0.8B/1.5B-
Granite 3.0-3.31B/2B/3B/8Bgranite3
Hunyuan7Bhunyuan
Index1.9Bindex
InternLM 2-37B/8B/20Bintern2
InternVL 2.5-31B/2B/8B/14B/38B/78Bintern_vl
Kimi-VL16Bkimi_vl
Llama7B/13B/33B/65B-
Llama 27B/13B/70Bllama2
Llama 3-3.31B/3B/8B/70Bllama3
Llama 4109B/402Bllama4
Llama 3.2 Vision11B/90Bmllama
LLaVA-1.57B/13Bllava
LLaVA-NeXT7B/8B/13B/34B/72B/110Bllava_next
LLaVA-NeXT-Video7B/34Bllava_next_video
MiMo7Bmimo
MiniCPM1B/2B/4Bcpm/cpm3
MiniCPM-o-2.6/MiniCPM-V-2.68Bminicpm_o/minicpm_v
Ministral/Mistral-Nemo8B/12Bministral
Mistral/Mixtral7B/8x7B/8x22Bmistral
Mistral Small24Bmistral_small
OLMo1B/7B-
PaliGemma/PaliGemma23B/10B/28Bpaligemma
Phi-1.5/Phi-21.3B/2.7B-
Phi-3/Phi-3.54B/14Bphi
Phi-3-small7Bphi_small
Phi-414Bphi4
Pixtral12Bpixtral
Qwen (1-2.5) (Code/Math/MoE/QwQ)0.5B/1.5B/3B/7B/14B/32B/72B/110Bqwen
Qwen3 (MoE)0.6B/1.7B/4B/8B/14B/32B/235Bqwen3
Qwen2-Audio7Bqwen2_audio
Qwen2.5-Omni3B/7Bqwen2_omni
Qwen2-VL/Qwen2.5-VL/QVQ2B/3B/7B/32B/72Bqwen2_vl
Seed Coder8Bseed_coder
Skywork o18Bskywork_o1
StarCoder 23B/7B/15B-
TeleChat23B/7B/35B/115Btelechat2
XVERSE7B/13B/65Bxverse
Yi/Yi-1.5 (Code)1.5B/6B/9B/34Byi
Yi-VL6B/34Byi_vl
Yuan 22B/51B/102Byuan

三、 llama_factory常用命令

动作参数枚举参数说明
llamafactory-cli version显示版本信息version

# 单卡训练(Qwen1.5-4B模型) CUDA_VISIBLE_DEVICES=0 llamafactory-cli train \ --model_name_or_path Qwen/Qwen1.5-4B \ --dataset alpaca_en \ --template qwen \ --output_dir ./output

# 多卡训练(使用2张GPU) CUDA_VISIBLE_DEVICES=0,1 llamafactory-cli train \ --model_name_or_path meta-llama/Llama3-8B \ --dataset alpaca_en,code_alpaca \ --template llama3 \ --bf16 true \ --deepspeed configs/ds_config.json

命令行版本训练tran
# 加载本地微调后的模型 llamafactory-cli chat \ --model_name_or_path ./output/checkpoint-1000 \ --template qwen \ --quantization_bit 4 # 4位量化减少显存占用命令行版本推理chat

# 合并LoRA适配器到基座模型 llamafactory-cli export \ --model_name_or_path Qwen/Qwen1.5-4B \ --adapter_name_or_path ./lora_output \ --template qwen \ --export_dir ./merged_model

# 导出为GGUF格式(用于llama.cpp) llamafactory-cli export \ --model_name_or_path ./merged_model \ --quantization_bit 4 \ --export_gguf true

模型合并和导出export
# 启动REST API服务(默认端口8000) CUDA_VISIBLE_DEVICES=0 llamafactory-cli api \ --model_name_or_path Qwen/Qwen1.5-4B \ --template qwen \ --port 8080 # 自定义端口启动API server,供接口调用api
# 在MMLU数据集上评测 llamafactory-cli eval \ --model_name_or_path ./output/checkpoint-1000 \ --eval_dataset mmlu \ --template qwen \ --batch_size 8使用mmlu等标准数据集做评测eval
# 启动Web聊天界面(自动打开浏览器) CUDA_VISIBLE_DEVICES=0 llamafactory-cli webchat \ --model_name_or_path THUDM/chatglm3-6b \ --template chatglm3 \ --quantization_bit 4前端版本纯推理的chat页面webchat
# 启动集成训练/评测/聊天的可视化界面 llamafactory-cli webui \ --model_name_or_path Qwen/Qwen1.5-7B \ --template qwen启动LlamaBoard前端页面,包含可视化训练,预测,chat,模型合并多个子页面webui

http://www.lryc.cn/news/2392420.html

相关文章:

  • 大模型深度学习之双塔模型
  • MySQL 8主从同步实战指南:从原理到高可用架构落地
  • 瑞数6代jsvmp简单分析(天津电子税x局)
  • 缓存架构方案:Caffeine + Redis 双层缓存架构深度解析
  • AI笔记 - 模型调试 - 调试方式
  • 榕壹云物品回收系统实战案例:基于ThinkPHP+MySQL+UniApp的二手物品回收小程序开发与优化
  • 《软件工程》第 9 章 - 软件详细设计
  • WebVm:无需安装,一款可以在浏览器运行的 Linux 来了
  • 王树森推荐系统公开课 排序06:粗排模型
  • go并发编程| channel入门
  • PH热榜 | 2025-05-29
  • 详解GPU
  • WPF【11_10】WPF实战-重构与美化(配置Material UI框架)
  • (自用)Java学习-5.16(取消收藏,批量操作,修改密码,用户更新,上传头像)
  • 【Node.js】部署与运维
  • 【Java Web】速通JavaScript
  • TDengine 运维——巡检工具(安装前预配置)
  • C#索引器详解:让对象像数组一样被访问
  • 机器学习课设
  • vue 如何对 div 标签 设置assets内本地背景图片
  • wsl2 docker重启后没了
  • ubuntu 22.04 配置静态IP、网关、DNS
  • RDS PostgreSQL手动删除副本集群副本的步骤
  • MySQL 自增主键重置详解:保持 ID 连续性
  • Vue Hook Store 设计模式最佳实践指南
  • 国产化Word处理控件Spire.Doc教程:通过Java简单快速的将 HTML 转换为 PDF
  • Spring AI 1.0 GA深度解析与最佳实践
  • Java求职面试:从Spring到微服务的技术挑战
  • 鸿蒙OSUniApp 开发的图文混排展示组件#三方框架 #Uniapp
  • WHAT - 学习 WebSocket 实时 Web 开发