当前位置: 首页 > news >正文

Augmented Large Language Models with Parametric Knowledge Guiding

本文是LLM系列文章,针对《Augmented Large Language Models with Parametric Knowledge Guiding》的翻译。

参数知识引导下的增强大型语言模型

  • 摘要
  • 1 引言
  • 2 相关工作
  • 3 LLM的参数化知识引导
  • 4 实验
  • 5 结论

摘要

大型语言模型(LLM)凭借其令人印象深刻的语言理解和生成能力,显著提高了自然语言处理(NLP)。然而,由于对相关数据的了解有限,对于需要专业知识的特定领域任务,它们的性能可能不太理想。此外,大多数最先进的LLM(只能通过API访问)缺乏透明度,阻碍了对域自定义数据的进一步微调。此外,向LLM所有者提供私人数据会导致数据隐私问题。为了应对这些挑战,我们提出了一种新的参数化知识引导(PKG)框架,该框架为LLM配备了一个知识引导模块,以便在不改变LLM参数的情况下访问相关知识。我们的PKG基于开源的“白盒”语言模型,允许LLM所需的任何知识的离线存储。我们证明,我们的PKG框架可以提高“黑匣子”LLM在一系列领域知识密集型任务中的性能,这些任务需要事实(+7.9%)、表格(+111.9%)、医学(+3.0%)和多模态(+8.1%)知识。

1 引言

2 相关工作

3 LLM的参数化知识引导

4 实验

5 结论

在这项工作中,我们提出了一种新的参数化知识引导(PKG)框架,通过为“黑匣子”LLM配备知识引导模块来提高它们在特定领域任务中的性能。我们的方法允许在运行时访问相关知识,而无需更改LLM的参数。实验证明了我们的PKG框架对各种领域知识密集型任务的有效性。
限制和未来工作。尽管我们的PKG在所提供的数据集上表现出了强大的性能,但它们仍然可能存在幻觉错误,导致提供不正确的背景知识。我们在附录E中提供了此类错误的例子。将我们的方法与检索方法相结合,以提高生成忠实度是未来研究的一个有希望的方向。

http://www.lryc.cn/news/169274.html

相关文章:

  • Docker启动Mysql容器并进行目录挂载
  • 力扣刷题(简单篇):两数之和、两数相加、无重复字符的最长子串
  • Spark的基础
  • 如何在idea中新建第一个java小程序
  • AOP全局异常处理
  • 一阶低通滤波器滞后补偿算法
  • JS中Symbol的介绍
  • 封装统一响应结果类和消息枚举类
  • 应广单片机实现红蓝双色爆闪灯
  • 深入了解OSI模型:计算机网络的七大层次
  • games101 作业2
  • 二叉树链式存储结构
  • Claude 使用指南 | 可与GPT-4媲美的语言模型
  • 【汇编】微处理器
  • 按键点亮led灯
  • Java常见面试题
  • 笔记1.5:计算机网络体系结构
  • 【Python】Python 连接字符串应优先使用 join 而不是 +
  • uniapp 小程序 父组件调用子组件方法
  • Vue-01:MVVM数据双向绑定与Vue的生命周期
  • 数据通信网络之OSPFv3基础
  • FPGA-结合协议时序实现UART收发器(五):串口顶层模块UART_TOP、例化PLL、UART_FIFO、uart_drive
  • 我学编程全靠B站了,真香-国外篇(第三期)
  • c++ 变量常量指针练习题
  • Linux底层基础知识
  • JUC并发编程--------线程安全篇
  • 机器视觉之Basler工业相机使用和配置方法(C++)
  • Centos nginx配置文档
  • 2023/9/14 -- C++/QT
  • golang在goland编译时获取环境变量失效