当前位置: 首页 > news >正文

【大模型lora微调】关于推理时如何使用 LoRA Adapter

假设你有两部分:

  • 一个是原始大模型(base model)
  • 一个是保存的 LoRA Adapter(adapter_config.json + adapter_model.bin)

不合并的情况下推理方法

你可以用 peft 的方式加载 LoRA Adapter,推理时这样写:

from transformers import AutoModel, AutoTokenizer
from peft import PeftModel# 1. 加载原始大模型
base_model = AutoModel.from_pretrained("原始模型路径",trust_remote_code=True
)
tokenizer = AutoTokenizer.from_pretrained("原始模型路径",trust_remote_code=True
)# 2. 加载 LoRA Adapter
model = PeftModel.from_pretrained(base_model,"lora_adapter保存路径"
)# 3. 推理
inputs = tokenizer("你的输入", return_tensors="pt")
outputs = model.generate(**inputs)
print(tokenizer.decode(outputs[0]))
  • "原始模型路径":假设就是你原始 ChatGLM-3 6B 的本地路径
  • "lora_adapter保存路径":就是你训练保存的 lora 目录

这样就可以直接用 LoRA 微调后的模型推理,无需合并!


http://www.lryc.cn/news/573017.html

相关文章:

  • 如何填写“appium inspector”内容?
  • 数据分析和可视化:Py爬虫-XPath解析章节要点总结
  • 第32周———Tensorflow|LSTM-火灾温度预测
  • HTML一键打包EXE串口API介绍
  • 智能群跃小助手发布说明
  • 【编译原理】语句的翻译
  • 二分查找----1.搜索插入位置
  • 【LLM06---相对位置编码】
  • 下载链接记录
  • Linux 内核同步管理全解:原理 + 实战 + 考点
  • 第六章 进阶25 超级丹谈管理
  • servlet前后端交互
  • 在Django中把Base64字符串保存为ImageField
  • 掌握Python编程的核心能力,能快速读懂并上手项目开发。
  • HCIP-数据通信基础
  • 【网工】华为配置专题进阶篇④
  • 【Dify学习笔记】:RagFlow接入Dify基础教程
  • STM32:AS5600
  • Vuex(一) —— 集中式的状态管理仓库
  • 掌握Bash脚本编写:从服务启动脚本到语法精要
  • 防止应用调试分析IP被扫描加固实战教程
  • SAM2论文解读-既实现了视频的分割一切,又比图像的分割一切SAM更快更好
  • Springboot仿抖音app开发之Nacos 分布式服务与配置中心(进阶)
  • 文件夹美化工具推荐,打造个性化电脑界面
  • 音视频之H.264的可伸缩编码SVC
  • 【案例】性能优化在持续集成与持续交付中的应用
  • GO Gin Web框架面试题及参考答案
  • FPGA基础 -- Verilog 共享任务(task)和函数(function)
  • UE5错误 Linux离线状态下错误 请求失败libcurl错误:6无法解析主机名
  • 信任再造:跌倒检测算法如何让善意不再“自证”