当前位置: 首页 > news >正文

[论文笔记]Prefix Tuning

引言

今天带来微调LLM的第二篇论文笔记Prefix-Tuning。

作者提出了用于自然语言生成任务的prefix-tuning(前缀微调)的方法,固定语言模型的参数而优化一些连续的任务相关的向量,称为prefix。受到了语言模型提示词的启发,允许后续的token序列注意到这些prefix,当成虚拟token。

只需要修改0.1%的参数量,在全量数据设定下,前缀微调能获得较好的效果;而在少数据设定下,它的表示甚至超过了全量微调,并且泛化能力更好。

总体介绍

全量微调需要保存原始模型的完全参数拷贝,这是非常耗费资源的。一种解决这个问题的自然选择是轻量微调(lightweight fine-tuning),固定住大多数参数仅调整少部分。比如我们上次介绍的Adapter微调通过插入任务相关的额外层,在自然语言理解和生成任务上获得了不错的表现。

GPT-3通过上下文学习(in-context learning),一种提示词的形式,不需要调整任何LM的参数。比如针对摘要任务的TL;DR,以及添加少部分样本到输入中,然后LM生成任务相关的输出。然而这种方法受限于输入的长度,上下文学习只能限定少量的训练样本。

image-20230919151015960

考虑生成一个关于表格数据描述内容的任务,如图1所示。输入是一个线性的表格,比如name: Starbucks | type: coffee s

http://www.lryc.cn/news/176494.html

相关文章:

  • electron快速入门
  • C语言的stdio.h的介绍
  • 使用香橙派 在Linux环境中安装并学习Python
  • 如何开发物联网 APP?
  • 配置pytorchGPU虚拟环境-python3.7
  • Logic Pro X10.7.9(mac乐曲制作软件)
  • 第一部分:HTML5
  • Linux 基础入门
  • 【数据结构】插入排序:直接插入排序、折半插入排序、希尔排序的学习知识总结
  • Magic Battery for Mac:让你的设备电量管理变得轻松简单
  • nodejs+vue大学食堂订餐系统elementui
  • nat综合实验
  • 【iOS逆向与安全】好用的一套 TCP 类
  • Ubuntu Kafka开机自启动服务
  • c#实现单例模式的两种方法(饿汉式、懒汉式)
  • Git与Repo:开源开发的得力工具组合
  • centos7 添加网卡设置动态ip,修改网卡为任意名称
  • 计算机竞赛 深度学习人脸表情识别算法 - opencv python 机器视觉
  • nvm安装后node或npm不是内部或外部命令
  • Kafka数据可靠性保证
  • 基于R的linkET包qcorrplot可视化Mantel test相关性网络热图分析correlation heatmap
  • IOTDB的TsFile底层设计
  • MATLAB算法实战应用案例精讲-【人工智能】边缘计算(补充篇)
  • Linux学习-HIS系统部署(1)
  • Cairo介绍及源码构建安装(3)
  • Mac电脑信息大纲记录软件 OmniOutliner 5 Pro for Mac中文
  • linux设置应用开机自启(通用:mysql、jar、nginx、solr...)
  • Offset Explorer(Kafka消息可视化工具)报invalid hex digit ‘{‘错误解决方法
  • 深度学习:模型训练过程中Trying to backward through the graph a second time解决方案
  • 【数值计算方法】非线性方程(组)和最优化问题的计算方法:非线性方程式求根的二分法、迭代法、Newton 迭代法及其Python实现