当前位置: 首页 > news >正文

ACL2023 Prompt 相关文章速通 Part 1

Accepted Papers

link: ACL2023 main conference accepted papers

文章目录

  • Accepted Papers
    • Prompter: Zero-shot Adaptive Prefixes for Dialogue State Tracking Domain Adaptation
    • Query Refinement Prompts for Closed-Book Long-Form QA
    • Prompting Language Models for Linguistic Structure
    • Zero-shot Approach to Overcome Perturbation Sensitivity of Prompts
    • PMAES: Prompt-mapping Contrastive Learning for Cross-prompt Automated Essay Scoring
    • Exploring Lottery Prompts for Pre-trained Language Models
    • Marked Personas: Using Natural Language Prompts to Measure Stereotypes in Language Models
    • MultiTool-CoT: GPT-3 Can Use Multiple External Tools with Chain of Thought Prompting
    • END

Prompter: Zero-shot Adaptive Prefixes for Dialogue State Tracking Domain Adaptation

将 soft prompt 以及 Hyper Prompt 架构用在了对话情景追踪(DST)任务上,详见这篇博客。

Query Refinement Prompts for Closed-Book Long-Form QA

文章链接

又是一个没见过的任务,Closed-Book Long-Form QA,字面意思就是闭卷长QA。显而易见有两个约束,一个是闭卷,也就是LLM只能基于预训练的知识做回答;另一个是长,这里指QA的A即回答比较长。这个任务的实例由作者给出:
在这里插入图片描述
这个任务的问题就比较笼统,答案是可以说很多的,作者就将其总结为多角度回答,具体来讲就是回答一个这样的问题分为3步:

  1. 将这个笼统的大问题拆分成几个不同方面的子问题;
  2. 回答不同的子问题;
  3. 将子问题的答案组织成一个连贯的长回答。

作者也是受CoT的启发,将“拆分子问题”这个过程显式地加在输出里,让LLM产生更好的输出。实际上做法很经典,用几个人工的demo做few-shot,从demo库里面按照相似度找跟当前问题最相似的demo做few-shot。

思路是CoT的,应用在了比较小众的一个问题上。

Prompting Language Models for Linguistic Structure

文章链接

在这里插入图片描述
任务是给PLM样例让PLM给句子的每个单词打词性标签,从而研究PLM是否理解的语言,还是只是单纯的缝合训练数据。结论是PLM的语言能力应该是比单纯的记忆训练数据高的。

Zero-shot Approach to Overcome Perturbation Sensitivity of Prompts

文章链接

给一个base prompt,该工作生成一个更好的prompt,同时保证zero-shot,即不使用验证集来评估生成的prompt的好坏,而是用new metric来选出更好的prompt。这个setting还是挺好的,确实很多prompt generate的工作需要验证集来评估生成的prompt的好坏从而筛选。

在这里插入图片描述
然而细细观之,作者的做法比较复古,作者说主要是针对低资源场景的,因此模型也只用了BERT,任务也仅考虑了情感分析任务。

首先生成Prompt的方式是类似GrIPS的操作,在单词层面对base prompt进行修改,分为换位置(prompt放在input前面/后面)、加连词(prompt在前面时用because连接,放在后面时用so连接)以及用BERT paraphrase某个token。

打分是重头戏的部分,作者的打分基于一个假设:好的prompt应该对一些“关键词”敏感,比如说“This film is great.”的情感是positive, 那在这个“great”变成反义词,如“terrible”的时候,情感就该反转变成negative。类似地,变成同义词这个情感就该不变。由此,作者就通过prompt对关键词的敏感程度来评判prompt的好坏,而不需要知道真正的label是什么。

看下来感觉这个操作类似于数据增强,作者的这个想法还是很有意思的,但应用范围目前还只局限于二分类任务。同时我认为带有“关键词”的输入本身就比较简单,都能找到关键词了那么其实离正确答案也不远了。但作者的立意比较新,而且基于BERT,主打low resource。

PMAES: Prompt-mapping Contrastive Learning for Cross-prompt Automated Essay Scoring

文章链接

这篇好像跟prompt engineer的prompt不是一个意思啊,是为文章进行打分的,不知道essay的prompt是个什么东东?

Exploring Lottery Prompts for Pre-trained Language Models

文章链接,简洁但有效的搜索并集成prompt的方法,详见这篇博客

Marked Personas: Using Natural Language Prompts to Measure Stereotypes in Language Models

文章链接

看名字就知道是偏人文的,主要考察LLM对人类群体的刻板印象,大体上的思路是让LLM生成对某个种族或者别的群体的描述,分析其中的情感,就不细说了。

MultiTool-CoT: GPT-3 Can Use Multiple External Tools with Chain of Thought Prompting

文章链接
在这里插入图片描述
用Few-shot-CoT的方式教会LLM使用外部工具,样例中有一些特别的token,在LLM输出这些token的时候就会调用外部工具,比如计算器和化学反应工具,弥补LLM的专业技能。方法不复杂,作者称他们是SOTA。

END

暂时先更到这里,剩下的文章以后再看。

http://www.lryc.cn/news/139710.html

相关文章:

  • “R语言+遥感“水环境综合评价方法
  • 数据结构之哈希
  • 可视化绘图技巧100篇基础篇(七)-散点图(一)
  • 关于什么是框架
  • iOS开发Swift-集合类型
  • 【keepalived双机热备与 lvs(DR)】
  • C++笔记之静态成员函数可以在类外部访问私有构造函数吗?
  • 最新SQLMap进阶技术
  • 【BurpSuite常用功能介绍】
  • Leetcode 108. 将有序数组转换为二叉搜索树
  • 小匠物联联合亚马逊云助力企业数智化出海
  • (五)k8s实战-配置管理
  • GPT---1234
  • 计算机竞赛 基于大数据的时间序列股价预测分析与可视化 - lstm
  • python进行数据分析:数据预处理
  • 百度Apollo:引领自动驾驶技术的创新与突破
  • Python爬虫 异步、缓存技巧
  • YOLOv5屏蔽区域检测(选择区域检测)
  • 记录一次presto sql执行报错 Error executing query的解决办法
  • Android Studio开发之路 (五)导入OpenCV以及报错解决
  • vue3.3中ref和reactive原理源代码分析
  • 10.Oracle中decode函数
  • Podman安装部署kafka和管理界面(快速跑起来)
  • Hbase文档--架构体系
  • stm32基于HAL库驱动外部SPI flash制作虚拟U盘
  • vue3-ts- element-plus新增组件-过滤
  • PostgreSQL SQL优化
  • debian12网络静态ip配置-OSSIM 安全漏洞扫描系统平台
  • 微软 Visual Studio 现已内置 Markdown 编辑器,可直接修改预览 .md 文件
  • 阿里云通义千问开源第二波!大规模视觉语言模型Qwen-VL上线魔搭社区