当前位置: 首页 > news >正文

Re51:读论文 Language Models as Knowledge Bases?

诸神缄默不语-个人CSDN博文目录
诸神缄默不语的论文阅读笔记和分类

论文名称:Language Models as Knowledge Bases?

ArXiv网址:https://arxiv.org/abs/1909.01066

官方GitHub项目:https://github.com/facebookresearch/LAMA

本文是2019年EMNLP论文,作者来自脸书和伦敦大学学院。

本文关注LM中蕴含的知识,想要探索的问题是,通过在大型的文本语料上进行预训练,语言模型是否已经(或是有潜力)学习到并存储下了一些事实知识(主体-关系-客体形式的三元组 (subject, relation, object) 或是问题-答案对)?
本文通过将事实三元组转换为自然语言形式,让LM(未经过微调的)用完形填空的形式来预测其中的object(把relation反过来也能预测subject),来进行这一探查:LAMA (LAnguage Model Analysis)
评估正确结果的排序

在这里插入图片描述

实验结论:1. BERT表现很好,可以匹敌传统的有监督学习方法 2. LM对有些知识比其他知识学得更好(N-to-M 关系表现较差)
(什么1984经典句式)

实验用的LM:
单向LM & 双向LM
在这里插入图片描述

baseline包括纯统计学习的、预训练的关系抽取模型、DrQA(先检索相似文档,再做阅读理解)

实验用的事实数据集来自关系数据集Google-RE、T-REx、ConceptNet,将每一种关系手工转换为填空题。原数据集中就有三元组对应的文本。
再加上QA数据集SQuAD
仅选择只有一个token的场景。

↑注意这里,模版的选择会影响结果。所以本文认为手工制作模版只能说是给出了一个LM知识的下限水平。

指标:P@k

P@1:
在这里插入图片描述

P@k:
在这里插入图片描述

出现频率越高、实体越相似、subject越长,指标越高
在这里插入图片描述

案例分析:
在这里插入图片描述

在这里插入图片描述

http://www.lryc.cn/news/241215.html

相关文章:

  • .NET 使用配置文件
  • vue 通过ref调用router-view子组件的方法
  • 在全球碳市场中崭露头角的中碳CCNG
  • uni-app - 弹出框
  • 深度学习之基于Tensorflow卷积神经网络鸟类目标识别检测系统
  • 关闭EntityFramework日志输出SQL
  • 重新开启GPT Plus充值通道——基于前端开发者工具
  • 技术细分|推荐系统——推荐系统中的数据去偏方法
  • 多功能回馈式交流电子负载的应用
  • AIGC专题报告:生成式人工智能用例汇编
  • php xml数据转数组两种方式
  • wagtail-安装配置
  • 基于Android校园交流uniAPP+vue 微信小程序v7e1
  • geemap学习笔记013:为遥感动态GIF图添加图名
  • 【开源】基于JAVA的高校实验室管理系统
  • 为啥 有了锤子,看啥都是钉子?
  • java实现连接linux(上传文件,执行shell命令等)
  • 苹果企业签名和TF签名都是iOS内测中的常见方法有哪些?
  • CC++输入输出流介绍
  • leedcode 刷题 - 除自身以外数组的乘积 - 和为 K 的子数组
  • uniapp 富文本以及移动端富文本的展示问题
  • JAVA sql 查询
  • 掌握Katalon Studio 导入 swagger 接口文档,接口测试效率提升100%
  • 程序员最奔溃的瞬间
  • java字符串的常见用法
  • 链表OJ--下
  • FreeRTOS源码阅读笔记4--semphr.h
  • 面试:MyBatis问题
  • vue中页面(路由)跳转及传值的几种方式 router-link + query + params
  • 媒体格式转换软件Permute 3 mac中文版软件特点