当前位置: 首页 > news >正文

机器学习笔记 - LoRA:大型语言模型的低秩适应

一、简述

1、模型微调

        随着大型语言模型 (LLM) 的规模增加到数千亿,对这些模型进行微调成为一项挑战。传统上,要微调模型,我们需要更新所有模型参数。这也称为完全微调 (FFT) 。下图详细概述了此方法的工作原理。

        完全微调FFT 的计算成本和资源需求很大,因为更新每个参数都需要大量的处理和内存。其次,使用像 FFT 这样的方法,存在灾难性遗忘的风险,即模型在过度学习新数据时会忘记以前学到的信息。

        于是为应对这一情况,出现了一系列称为参数高效微调 (PEFT)的方法。PEFT 仅需修改一小部分参数(在某些任务中甚至为 1%)即可达到与 FFT 相近的准确度。使用 PEFT,微调将需要更少的计算和时间,并降低过度拟合的风险。

2、LoRA

        一种流行的 PEFT 方法就是LoRA,大型语言模型的低秩自适应 ( LoRA ) 由微软开发,通过学习秩分解矩阵对并冻结原始权重来减少可训练参数的数量。

        该方法基于一个假设:权重变化矩阵 ΔW 可以在较低维度中表示。换句话说,ΔW 的秩很低。这被称为内在秩假设。

        Lora 尝试微调模型的“残差”&#

http://www.lryc.cn/news/372251.html

相关文章:

  • 基于python实现视频和音频长度对齐合成并添加字幕
  • 爬虫-模拟登陆博客
  • 【深度学习】【NLP】Bert理论,代码
  • element table 点击某一行中按钮加载
  • Linux开机自启/etc/init.d和/etc/rc.d/rc.local
  • DP:两个数组的dp问题
  • 嵌入式Linux:格式化I/O
  • 【elementui源码解析】如何实现自动渲染md文档-第二篇
  • 热门开源项目OpenHarmony
  • NewspaceAi之GPT使用新体验
  • 详解红黑树
  • 探索JavaScript逆向工程与风控等级
  • C++ 22 之 立方体案例
  • vue2使用antv/g6-editor实现可拖拽流程图
  • springboot学习小结
  • vue聊天发送Emoji表情
  • 360数字安全:2024年4月勒索软件流行态势分析报告
  • 【MySQL】日志详解
  • MyBatis 延迟加载,一级缓存,二级缓存设置
  • Linux 基本指令2
  • 联邦学习的基本流程,联邦学习权重聚合,联邦学习权重更新
  • React保姆级教学
  • 数据结构和矩阵细节用法:double、cell和complex #matlab
  • 12. Django 第三方功能应用
  • UnityWebRequest获取本地txt文件,其中中文乱码问题(踩坑记录)
  • 轮到国产游戏统治Steam榜单
  • 不想搭集群,直接用spark
  • 【MATLAB源码-第225期】基于matlab的计算器GUI设计仿真,能够实现基础运算,三角函数以及幂运算。
  • Scikit-learn 基础教程:机器学习的初步指南
  • 开源WebGIS全流程常用技术栈