当前位置: 首页 > news >正文

Fine-tuning Large Enterprise Language Models via Ontological Reasoning

本文是LLM系列文章,针对《Fine-tuning Large Enterprise Language Models via Ontological Reasoning》的翻译。

基于本体论推理的大型企业语言模型微调

  • 摘要
  • 1 引言
  • 2 微调LLM的神经符号管道
  • 3 通过概念证明进行初步验证
  • 4 结论

摘要

大型语言模型(LLM)利用特定任务的训练数据,将微调作为一种适应不同目标的技术。任务特异性应该与领域定向齐头并进,即LLM的专业化,以准确地处理给定感兴趣领域的任务。然而,模型通常是根据公开可用的数据进行微调的,或者最多是根据数据库中的真实数据进行微调,而忽略了业务级别的定义和领域经验。另一方面,企业知识图谱(EKG)能够通过本体论推理来捕获和增强这些领域知识。为了将LLM的灵活性与EKG的领域定向相结合,我们提出了一种新的神经符号体系结构,该体系结构利用本体论推理的力量来构建用于LLM微调的任务和领域特定语料库。

1 引言

2 微调LLM的神经符号管道

3 通过概念证明进行初步验证

4 结论

根据计算语言学协会欧洲分会最近发表的一项工作,预先训练的语言模型还不能进行演绎推理:它们仍然不能概括逻辑规则,即使提供了规则,LLM也倾向于忘记以前推断的事实。虽然Transformer架构和推理方法之间还没有进行广泛的比较,但我们的工作表明,通过产生微调语料库作为本体论推理的副产品,可以明显提高领域特定NLP任务的LLM性能。我们利用我们在演绎推理方面的经验,为在企业知识图谱上进行推理的神经符号平台迈出了第一步。

http://www.lryc.cn/news/157078.html

相关文章:

  • 2023年全国职业院校技能大赛 高等职业教育组(信息安全管理与评估)正式赛题
  • 基于SSM的校园驿站管理系统
  • 分布式实时仿真系统-反射内存的应用
  • 【python技巧】替换文件中的某几行
  • 内网建自己的pip源
  • Vue 3的Diff算法相比Vue 2有哪些具体的改进?
  • 网络面试题整理
  • Liquid Studio 2023.2 Crack
  • 企业架构LNMP学习笔记8
  • 简单使用_matlab生成数据帧
  • uni-app语音转文字功能demo(同声传译)
  • vue2+element-ui批量导入方法并判断上传的文件是否为xls或xlsx
  • 【FPGA】通俗理解从VGA显示到HDMI显示
  • 【SpringMVC】参数传递与用户请求和响应
  • Android图形-Hardware Composer HAL
  • P1093 [NOIP2007 普及组] 奖学金
  • C#模拟PLC设备运行
  • LeetCode 每日一题 2023/8/28-2023/9/3
  • Python Tkinter Multiple Windows 教程
  • 【Arduino24】8*8点阵实验
  • 2023年09月数据库流行度最新排名
  • jenkins快速跑通helloworld任务
  • win10中安装ros
  • 问道管理:光刻胶概念再度活跃,广信材料两连板,蓝英装备等涨停
  • InstructPix2Pix(CVPR2023)-图像编辑论文解读
  • 基于神经网络结合紫外差分光谱的二氧化硫浓度定量预测
  • 一个新工具 nolyfill
  • vue的第2篇 开发环境vscode的安装以及创建项目空间
  • Java之包装类的详细解析
  • SpringBoot项目防止接口重复提交(简单拦截器实现方案)