当前位置: 首页 > news >正文

nlp|微调大语言模型初探索(3),qlora微调deepseek记录

前言

  上篇文章记录了使用lora微调llama-1b,微调成功,但是微调llama-8b显存爆炸,这次尝试使用qlora来尝试微调参数体量更大的大语言模型,看看64G显存的极限在哪里。

1.Why QLora?

  • QLoRA 在模型加载阶段通过 4-bit 量化大幅减少了模型权重的显存占用。
  • QLoRA 通过 反量化到 BF16 进行训练,在保持计算精度的同时,进一步节省显存和提高效率。
  • QLoRA 在加载、训练、以及权重存储等多个方面都进行了优化,从而有效地减少了显存使用。
    总结:比Lora节省显存!!

2.LLaMA-Factory支持模型

在这里插入图片描述
如上图所示,这是LLaMA-Factory所有支持的大语言模型,你可以选择你感兴趣的模型进行微调。
LLaMA-Factory

3.尝试Llama-3.2-3B

  • 下载Llama-3.2-3B-Instruct

http://www.lryc.cn/news/540140.html

相关文章:

  • 【全栈】SprintBoot+vue3迷你商城-细节解析(1):Token、Jwt令牌、Redis、ThreadLocal变量
  • 基于ffmpeg+openGL ES实现的视频编辑工具(一)
  • 面试完整回答:SQL 分页查询中 limit 500000,10和 limit 10 速度一样快吗?
  • Linux系统管理(十六)——通过WSL配置windows下的Linux系统(可视化界面与远程连接)
  • 【RabbitMQ业务幂等设计】RabbitMQ消息是幂等的吗?
  • flutter在安卓模拟器上运行
  • linux shell 当命令执行出现错误立即退出的方法
  • 与本地电脑PDF文档对话的PDF问答程序
  • QT之改变鼠标样式
  • 后端开发:开启技术世界的新大门
  • Sun-Panel:简洁且美观的导航首页开源项目!!
  • 第4章 信息系统架构(四)
  • 【Java八股文】07-Redis面试篇
  • Windows PyCharm的python项目移动存储位置后需要做的变更
  • 微信小程序消息推送解密
  • 《道德经的现代智慧:解码生活与商业的底层逻辑2》
  • 通过监督微调提升多语言大语言模型性能
  • 用deepseek学大模型05逻辑回归
  • 图解循环神经网络(RNN)
  • vue文件没有name属性怎么被调用
  • YOLOv11-ultralytics-8.3.67部分代码阅读笔记-build.py
  • alt+tab切换导致linux桌面卡死的急救方案
  • Spark(2)linux和简单命令
  • 如何在Windows下使用Ollama本地部署DeepSeek R1
  • 【Content-Type详解、Postman中binary格式、json格式数据转原始二进制流等】
  • spring boot知识点3
  • Dart 3.5语法 28-29
  • 利用AFE+MCU构建电池管理系统(BMS)
  • 【教学类-89-06】20250220新年篇05——元宵节灯笼
  • C++ Primer 类的静态成员