当前位置: 首页 > news >正文

ChatGPT三个关键技术

 

情景学习(In-context learning)

 

对于一些LLM没有见过的新任务,只需要设计一些任务的语言描述,并给出几个任务实例,作为模型的输入,即可让模型从给定的情景中学习新任务并给出满意的回答结果。这种训练方式能够有效提升模型小样本学习(few-shot learning)的能力。下图是一个情景学习的示例。

640?wx_fmt=png&wxfrom=5&wx_lazy=1&wx_co=1&tp=wxpic

可以看到,只需要以自然语言的形式描述两个情感分类任务输入输出的例子,LLM就能够对新输入数据的情感极性进行判断。

 

思维链(Chain-of-Thought,CoT)

对于一些逻辑较为复杂的问题,直接向大规模语言模型提问可能会得到不准确的回答,但是如果以提示(prompt)的方式在输入中给出有逻辑的解题步骤(即将复杂问题拆解为多个子问题解决再从中抽取答案)的示例后再提出问题,大模型就能给出正确题解。

640?wx_fmt=png&wxfrom=5&wx_lazy=1&wx_co=1&tp=wxpic

如图所示,直接让模型进行数学题的计算会得到错误的结果,而引入解题过程则可以激发模型的推理能力,从而得到的正确的结果。

 

有时,甚至不用给示例,在输入后面接一句“Let’s think step by step”,模型的输出就是一步一步“思考”后的各个子问题的结果,再将该输出拼到输入后构造第二次输入数据,大模型就能进一步将上一步的输出整合,得出正确的复杂问题的解。(so amazing!)

640?wx_fmt=png&wxfrom=5&wx_lazy=1&wx_co=1&tp=wxpic

目前有研究发现,由于数据集中存在的大量代码数据,得益于代码的强逻辑性,通过将问题中的文本内容替换为编程语言能够进一步提升模型的CoT能力(Program-aided Reasoning)。

由于CoT技术能够激发大规模语言模型对复杂问题的求解能力,该技术也被认为是打破比例定律的关键。

03

  自然指令学习

(Learning from Natural Instructions)

这种训练方式会在输前面添加一个“指令(instruction)”,该指令能够以自然语言的形式描述任务内容,从而使得大模型根据输入来输出任务期望的答案。该方式将下游任务进一步和自然语言形式对齐,能显著提升模型对未知任务的泛化能力。

640?wx_fmt=png&wxfrom=5&wx_lazy=1&wx_co=1&tp=wxpic

 

https://mp.weixin.qq.com/s/vz6x5n8tGKSErwS-_bQY2A

 

http://www.lryc.cn/news/16817.html

相关文章:

  • 考试系统 (springboot+vue前后端分离)
  • ChatGPT告诉你:项目管理能干到60岁吗?
  • Python自动化测试框架【Allure-pytest功能特性介绍】
  • ToB 产品拆解—Temu 商家管理后台
  • Android Studio的笔记--socket通信
  • @Async 注解
  • Redis:缓存穿透、缓存雪崩和缓存击穿(未完待续)
  • HIVE 基础(四)
  • 整型在内存中的存储(详细剖析大小端)——“C”
  • PS_高低频和中性灰——双曲线
  • Vim 命令速查表
  • Java重要基本概念理解
  • 逆向工具之 unidbg 执行 so
  • zk-STARK/zk-SNARK中IP,PCP,IPCP,IOP,PIOP,LIP,LPCP模型介绍
  • StreamAPI
  • MySQl高可用集群搭建(MGR + ProxySQL + Keepalived)
  • java+Selenium+TestNg搭建自动化测试架构(3)实现POM(page+Object+modal)
  • oracle11g忘记system密码,重置密码
  • 黑马 Vue 快速入门 笔记
  • HTTP协议知识体系核心重点梳理
  • Nginx优化与防盗链
  • 自动驾驶路径规划概况
  • 某某银行行面试题目汇总--HashMap为什么要扩容
  • 求职者:“我有五年测试经验”面试官: “不,你只是把一年的工作经验用了五年”
  • Nacos配置中心
  • 【故障】6、yum不可用
  • 深度解读 | 数据资产管理面临诸多挑战,做好这5个措施是关键
  • 双检测人脸防伪识别方法(活体检测+人脸识别+关键点检测+人像分割)
  • 2023年3月 - 笔记
  • 浅谈Redisson实现分布式锁对原理