当前位置: 首页 > news >正文

《生成式 AI》课程 第5講:訓練不了人工智慧?你可以訓練你自己 (下)

资料来自李宏毅老师《生成式 AI》课程,如有侵权请通知下线

Introduction to Generative AI 2024 Springicon-default.png?t=O83Ahttps://speech.ee.ntu.edu.tw/~hylee/genai/2024-spring.php

摘要

这一系列的作业是为 2024 年春季的《生成式 AI》课程设计的,共包含十个作业。每个作业都对应一个具体的主题,例如真假难辨的世界、AI 应用开发、AI催眠大师、LLM 微调等。

承接上一讲:

《生成式 AI》课程 第4講:訓練不了人工智慧?你可以訓練你自己 (中)_生成式人工智能训练-CSDN博客文章浏览阅读771次,点赞27次,收藏26次。这一系列的作业是为 2024 年春季的《生成式 AI》课程设计的,共包含十个作业。每个作业都对应一个具体的主题,例如真假难辨的世界、AI 应用开发、AI催眠大师、LLM 微调等。承接上一讲:《生成式 AI》课程 第3講:訓練不了人工智慧嗎?你可以訓練你自己-CSDN博客作业代码 ( 后续增加)强化语言模型的方法 - 拆解任务复杂任务可拆解为多个步骤,如先写大纲再生成摘要,以提升模型处理任务的能力。_生成式人工智能训练https://blog.csdn.net/chenchihwen/article/details/143829219?spm=1001.2014.3001.5501

主要内容总结

  1. 模型合作
    • 任务分配:不同能力和成本的语言模型 A、B、C 等,根据任务选择合适模型执行,展示平台服务可能涉及多个模型(如论文 “FrugalGPT” 相关研究)。
    • 模型讨论
      • 模型彼此讨论可提升效果,如 “Multi - Agent Debate” 等研究,不同任务有不同合适的讨论方式,如 “Exchange - of - Thought” 涉及 Debate、Memory、Report、Relay 等方式,且讨论可视范围不同(Fully Visible、Central Visible、Neighbor Visible、Peers Visible)。
      • 讨论停止条件:未达成共识则继续,达成共识则得出结论;讨论有不同级别要求,从完全达成共识到允许一定分歧(如论文 “https://arxiv.org/abs/2305.19118” 所述)。同时存在为反对而反对的情况及相应处理方式(如论文 “https://arxiv.org/abs/2305.14325” 所述)。
  2. 引入不同角色
    • 团队需要不同角色,不同模型有不同专长,可设定如 “project manager” 等角色。例如 Code llama 相关研究,不同角色如 Programmer、User、Project manager 等分工协作,根据贡献度打分优化团队(目前学术论文多在简单任务上测试)。
    • 未来语言模型可专业分工,不同团队专注打造专业领域语言模型,如开发游戏、编写程序等任务中不同角色的协作(如 MetaGPT、ChatDev 等相关研究及项目实践),还可形成由 AI 组成的社群(如相关社交场景模拟研究及展示)。

重点投影片

延伸阅读

mproving Factuality and Reasoning in Language Models through Multiagent Debateicon-default.png?t=O83Ahttps://arxiv.org/pdf/2305.14325文章摘要如下

不训练模型强化语言模型的方法总结

一、模型合作

(一)任务分配

不同能力和成本的语言模型(如模型 A、B、C 等)可根据任务选择合适的模型执行。展示平台上为用户服务的不一定是同一个模型,相关研究如 “FrugalGPT”(https://arxiv.org/abs/2305.05176)。

(二)模型讨论

  1. 提升效果:模型彼此讨论能强化语言模型,如 “Multi - Agent Debate” 等研究。不同任务有不同合适的讨论方式,如 “Exchange - of - Thought” 包含 Debate、Memory、Report、Relay 等,且讨论可视范围不同(Fully Visible、Central Visible、Neighbor Visible、Peers Visible)。
  2. 停止条件
    • 未达成共识则继续讨论,达成共识则得出结论。
    • 讨论有不同级别要求,从完全达成共识(Level 0)到允许一定分歧(Level 1),默认(Level 2)是为找到正确答案不一定要完全同意彼此观点,还有要求双方必须在每个辩论点上都不同意(Level 3)。
  3. 为反对而反对情况及处理:存在为反对而反对的情况,可根据其他模型的解决方案给出更新回应,如短提示(Short)基于其他答案给出新回应,长提示(Long)将其他答案作为额外建议给出新回应(相关研究https://arxiv.org/abs/2305.14325)。

二、引入不同角色

  1. 团队需要不同角色,不同模型有专长差异,可设定如 “project manager” 等角色。例如 Code llama 相关研究中,不同角色如 Programmer、User、Project manager 等分工协作,根据贡献度打分优化团队(目前学术论文多在简单任务上测试)。
  2. 未来语言模型可专业分工,不同团队专注打造专业领域语言模型,如 MetaGPT、ChatDev 等在开发游戏(如开发五子棋、编写 Flappy Bird 游戏)、编写程序等任务中不同角色协作(相关研究https://arxiv.org/abs/2308.00352、https://arxiv.org/abs/2310.02170),还可形成由 AI 组成的社群(相关研究及展示https://arxiv.org/abs/2304.03442、https://youtu.be/G44Lkj7XDsA?si=cMbKG3tqPbIgnnBq)

通过跨模型通信来增强大型语言模型(LLM)的能力icon-default.png?t=O83Ahttps://arxiv.org/pdf/2312.01823

“Exchange-of-Thought: Enhancing Large Language Model Capabilities through Cross-Model Communication”

由复旦大学、新加坡国立大学和上海人工智能实验室的研究人员撰写,提出了一种名为 Exchange-of-Thought(EoT)的框架,通过跨模型通信来增强大型语言模型(LLM)的能力。

  1. 研究背景
    • LLMs 在复杂推理任务中存在局限性,尽管通过 Chain-of-Thought(CoT)等技术取得进展,但推理仍受限于模型自身理解,缺乏外部视角123。
    • 现有方法如 CoT 和自校正方法在推理过程中依赖模型自身,难以克服固有局限,且获取高质量外部见解存在挑战436。
  2. 研究方法
    • 提出 EoT 框架:通过跨模型通信整合外部见解,包含四个通信范式(Memory、Report、Relay、Debate),并设计信心评估机制以减少错误推理影响578。
    • 通信范式:Memory 范式下模型记录并共享信息,通信成本高但信息流动快;Report 范式指定中心节点收集和分发信息;Relay 范式中模型按顺序传递信息;Debate 范式采用树形结构,叶节点交换信息,父节点聚合信息91011。
    • 终止条件:包括一致输出终止(当模型当前轮输出与上一轮相同时停止通信)和多数共识终止(当多数模型达成一致时停止通信)121314。
    • 信心评估:根据模型回答的变化计算信心水平,帮助接收方验证信息可靠性151617。
  3. 实验结果
    • 在数学推理、常识推理和符号推理任务中,EoT 显著优于基线方法,如在数学推理任务中,EoT 的四个通信范式比 CoT 和 ComplexCoT 有显著改进181920。
    • 多数共识终止在 AQuA 数据集上比一致输出终止表现更好;信心评估使模型在通信中能更早考虑其他模型的信心,平均提高准确率 2.92%;多数样本在三轮内达成终止条件,EoT 计算成本低于 CoT-SC (5) 且性能更优,还适用于不同 LLMs,模型多样性可提升 EoT 性能212223。
  4. 研究结论
    • EoT 通过跨模型通信丰富模型的外部见解,四个通信范式在不同任务中有各自优势,信心评估机制有效减少错误推理影响24。
    • EoT 在多个推理任务中表现出色,具有成本效益,适用于多种模型,模型多样性可进一步增强其性能24。
  5. 未来展望
    • 开源模型有望通过协作交换见解提升性能,但当前受通信和分析能力及计算资源需求限制。处理长文本能力的提升将有助于增加参与通信的模型数量,模型通信在降低计算资源下实现有效性能,符合 AI 可持续发展目标,未来将推动 AI 系统向更先进、协作方向发展252627。

内容如下

大型语言模型 (LLM) 最近通过 Chain-of-Thought 技术在复杂推理任务方面取得了重大进展。尽管取得了这些进步,但他们的推理往往受到内在理解的制约,缺乏外部洞察力。为了解决这个问题,我们提出了思想交流 (EoT),这是一种新颖的框架,可以在解决问题时实现跨模型通信。EoT 从网络拓扑中汲取灵感,集成了四种独特的通信范式:内存、报告、中继和辩论。本文深入探讨了与每种范式相关的通信动态和数量。为了抵消错误推理链的风险,我们在这些通信中实施了强大的置信度评估机制。我们在各种复杂推理任务中的实验表明,EoT 明显超过了既定的基线,强调了外部洞察在提高 LLM 绩效方面的价值。此外,我们表明 EoT 以具有成本效益的方式实现了这些卓越的结果,这标志着高效和协作解决 AI 问题的有希望的进步。

“两个脑袋总比一个好。” –英国谚语

1 引言

GPT4 等大型语言模型 (LLM)(OpenAI,2023 年)正在通过利用庞大的训练语料库和巨大的计算资源(Bai et al., 2022a;Ouyang et al., 2022;Chowdhery 等人,2022 年;Zhang et al., 2022;Touvron等人,2023a,除其他外)。尽管 LLM 在广泛的 NLP 任务中取得了模范性能(Wei et al., 2022a;Chung et al., 2022),但他们一直在努力在

推理任务,而这种限制不能仅仅通过增加模型的大小来克服(Rae et al., 2022;bench authors, 2023)。

图 1:CoT、自我校正和 EoT 的比较。CoT 和 Self-Correction 都依赖于模型的先天能力来生成和优化输出,缺乏外部洞察力。EoT 通过将其他模型的思想作为外部见解来增强模型的推理能力。

为了克服这个缺点,Wei et al. (2022b) 提出了思维链 (CoT) 提示,它指导模型在得出最终答案之前生成一系列中间推理步骤。同时,一系列自我纠正方法(Welleck et al., 2023;Ganguli et al., 2023)的回答,旨在通过利用模型对先前输出的反馈来迭代提高答案的质量(Madaan et al., 2023;Shinn et al., 2023)。

然而,CoT 和自我纠正完全基于模型在推理过程中对问题的理解和观点。最近的研究(Huang等人,2023 年;Valmeekam等人,2023 年;Stechly et al., 2023)表明,在没有外部反馈的情况下,LLM 很难修改他们的回答。这可以归因于该模型完全依赖内部表示来生成响应,这使得很难克服能力的固有限制(Yin et al., 2023)。

图 2:三个推理数据集的试点实验。包含正确答案的错误样本的数量明显高于不包含正确答案的错误样本。

尽管外部见解的重要性无可否认 (Yao et al., 2023),但获得高质量的外部见解仍然是一个挑战。Wang et al. (2023c) 的研究表明,CoT 生成的单一推理链限制了模型的推理性能。通过提高温度对不同的推理链进行采样,并通过多数投票选择答案,可以进一步提高模型的推理性能。但是,当面临困难的问题时,该模型通常会产生更多数量的错误回答。在图 2 中,我们对来自三个推理数据集的错误样本中的正确和错误答案的分析表明,在大多数情况下,模型可以推断出正确答案。

在人类社会中,真理,即使由少数人持有,也可以通过清晰和有说服力的沟通获得广泛的接受和认可(Le Bon,1897)。他人的正确推理可以作为高质量的外部见解,丰富和提升我们的集体理解。因此,我们提出了思想交流 (EoT),这是一种在解决问题过程中促进跨模型交流的新型框架。此计划使模型能够将他人的推理作为外部见解纳入其中。

图 1 将 EoT 与 CoT 和自我校正方法进行了对比,突出了 EoT 在整合外部视角方面的独特方法。受网络拓扑学原理(Bisht 和 Singh,2015 年)和代理通信(Parsons 和 McBurney,2003 年)的启发,我们提出了四种通信范式:记忆、报告、中继和辩论。这些范式旨在促进模型之间的思想交流和推理链,从而丰富问题

具有多种见解的解决过程。此外,我们深入研究了每种通信范式的复杂性,分析了信息流的动态和通信量。意识到正确和错误的推理链都会在通信中传播,我们引入了置信度评估机制,该机制采用答案变化分析来评估模型的置信度。它旨在减轻错误推理的影响,从而确保解决问题过程的完整性和可靠性。

各种复杂推理任务的实验表明,EoT 的性能明显优于既定的强基线,强调了外部洞察力在增强 LLM 能力方面的关键作用。我们将我们的贡献总结如下:

・我们引入了思想交流 (EoT),这是一个开创性的跨模型通信框架,在解决问题时结合了来自其他 LLM 的外部见解。

・我们提出并检查了四种通信范式以及一种置信度评估机制,该机制通过答案的可变性评估模型确定性,减轻错误推理的影响。

・各种复杂推理任务的实验结果强调了 EoT 的有效性和成本效益,突出了在解决问题中结合外部见解和沟通的重要性。

2 相关工作

2.1 LLM 中的思维链提示

Wei et al. (2022b) 强调,当受到具有中间推理步骤的演示的提示时,LLM 可以表现出增强的推理能力。该技术可以有效提高 LLM 在复杂推理任务上的性能(Wei et al., 2022a;Kojima et al., 2022)。已经提出了一系列增强 CoT 的策略,以进一步提高 LLM 的性能。其中一种方法是程序辅助语言模型(Gao et al., 2022;Chen et al., 2022),旨在通过程序合成将推理和计算解耦。此外,复杂的任务也可以通过模块化方法转化为可委派的子任务(Khot et al., 2023)。选择合适的演示可以

还可以提高 CoT 的性能(Li et al., 2023a;Li 和 Qiu,2023a)。其中值得注意的是,AutoCoT (Zhang et al., 2023b) 使用自动化方式来构建和采样各种演示。主动提示 (Diao et al., 2023) 根据模型在输出中的不确定性选择最有用的样本进行标记。最近,Li 和 Qiu (2023b) 采用了一种将高置信度的思想存储为外部记忆的策略,并检索这些见解以帮助推理过程。

2.2 推理路径的集合

LLM 能够使用温度调整和提示抽样等技术探索多种推理路径(Chu et al., 2023)。Wang et al. (2023c) 认为,对于复杂的问题,可能有几种正确的路径来解决一个问题,这导致了自洽的提出。这种方法用多个推理路径的采样并选择最一致的答案来取代贪婪解码策略,从而显著提高了性能。除此之外,Fu et al. (2023b) 发现,推理复杂度较高的提示可以在多步推理任务中取得更好的表现,从而提出了基于复杂性的提示。虽然其他方法,例如重新排名(Cobbe et al., 2021;Thoppilan et al., 2022)也被应用于选择合适的推理路径,它们通常依赖于启发式或训练有素的较小模型。最近,Li et al. (2023b) 对不同的演示进行了抽样,并使用分步验证来过滤掉错误的答案。然而,获得步骤级标签可能具有挑战性,并且使用较小的模型进行判断很难处理复杂的推理过程。相比之下,我们的方法充分利用了 LLM 的沟通和决策能力来得出最终答案,而无需额外的训练和注释数据。

2.3 推理路径细化

尽管 CoT(Wei et al., 2022b)有效地提高了 LLM 在复杂推理任务中的表现,但它们在推理过程中仍然容易受到错误的影响,从而导致错误的答案(Bai et al., 2022b;Lyu et al., 2023)。为了缓解这个问题,Shinn 等人(2023 年)和 Madaan 等人(2023 年)利用模型自己的反馈和过去的错误来改进推理过程。Yao et al. (2023) 探讨了推理之间的协同作用

链和行动计划。对于数值问题,Zheng et al. (2023) 通过使用先前生成的答案作为提示,逐渐引导模型找到正确答案。在外部知识的帮助下,Wang et al. (2023a) 引入了知识链提示,它使用证据三元组来遏制不真实和不忠实答案的产生。考虑到模型交互,多智能体辩论(Du et al., 2023;Liang et al., 2023)的引入是为了提高生成内容的事实准确性并减少谬误和幻觉。EoT 与这些工作不同,因为我们通过跨模型通信将其他模型的推理过程整合为外部洞察,从而优先增强单个模型生成的当前推理过程。

6 总结

我们介绍了 Exchange-of-Thought (EoT),这是一个新颖的框架,它通过跨模型通信为模型提供了外部见解。我们开发了四种通信范式,并对通信量和信息传播速度进行了全面分析。为了防止错误推理过程的中断,我们设计了一个置信度评估机制。数学、常识和符号推理任务的实验表明,EoT 超越了一系列强大的基线,同时也提供了成本优势。进一步分析表明,EoT 对各种模型具有适应性,更多样化的模型的参与可以进一步增强 EoT 的性能。

http://www.lryc.cn/news/491076.html

相关文章:

  • Vue 动态给 data 添加新属性深度解析:问题、原理与解决方案
  • 【Pytest+Yaml+Allure】实现接口自动化测试框架
  • el-input绑定点击回车事件意外触发页面刷新
  • Golang的语言特性与鸭子类型
  • 如何在Linux系统中排查GPU上运行的程序
  • VSCode 新建 Python 包/模块 Pylance 无法解析
  • Unet++改进44:添加MogaBlock(2024最新改进模块)|在纯基于卷积神经网络的模型中进行判别视觉表示学习,具有良好的复杂性和性能权衡。
  • 计算机网络(14)ip地址超详解
  • 【C语言】野指针问题详解及防范方法
  • 【SVN和GIT】版本控制系统详细下载使用教程
  • 【Vue】Vue3.0(二十六)Vue3.0中的作用域插槽
  • 神经网络(系统性学习二):单层神经网络(感知机)
  • CTF之密码学(BF与Ook)
  • 【TEST】Apache JMeter + Influxdb + Grafana
  • SpringBoot集成多个rabbitmq
  • 从零开始学习数据库 day0(基础)
  • MongoDB相关问题
  • linux基本命令(1)
  • 【机器学习】超简明Python基础教程
  • 基于信创环境的信息化系统运行监控及运维需求及策略
  • 【Mysql】视图--介绍和作用 视图的创建
  • 【JavaEE初阶 — 多线程】定时器的应用及模拟实现
  • Win10系统开启了文件夹管控(文件夹限制访问)导致软件向系统公共文档目录写入失败的问题排查分享
  • 大数据的数据整合
  • 回溯法经典难题解析
  • LLM的原理理解6-10:6、前馈步骤7、使用向量运算进行前馈网络的推理8、注意力层和前馈层有不同的功能9、语言模型的训练方式10、GPT-3的惊人性能
  • Electron开发构建工具electron-vite(alex8088)添加VueDevTools(VitePlugin)
  • 【C++】static修饰的“静态成员函数“--静态成员在哪定义?静态成员函数的作用?
  • =computed() =ref()
  • webgl threejs 云渲染(服务器渲染、后端渲染)解决方案