连续思维链Coconut ,打开LLM推理新范式
语言与推理之间有着什么样内涵上的联系与本质上的差别?
系统二的长链复杂分步推理与系统一分别在训练时与推理时的正/反向传播链路、模型神经网络内部的潜在机制(虽然是黑盒)以及网络链路对应的模型训练过程中“压缩”的数据(认知)流形所映射出的隐含碎片化泛化分布等这些问题,我们如何以统一的视角去审视?
来自Meta田渊栋团队、加州大学圣地亚哥分校的研究者们提出了一种新的范式——Coconut(连续思维链,Chain of Continuous Thought),来探索 LLM 在潜在空间中的推理。
具体的技术路线涉及对传统 CoT 过程的简单修改:Coconut不再通过语言模型头(language model head)和嵌入层将隐藏状态与语言 token 进行映射,而是直接将最后的隐藏状态(即连续思维)作为下一个 token 的输入嵌入。
可以说直觉上,这种修改是尝试在模型隐层切入角度中将传统以语言空间形式化嵌入为基础推理过程transform为隐性连续思维表征,由于连续思维完全可微,因此可以通过梯度下降对系统进行端到端优化。另外为了增强潜在推理的训练,采用了多阶段训练策略,该策略亦有效地利用语言推理链来指导训练过程。
同时,个人认为重要的意义是这种范式带来了高效且可延展的连续推理探索可能,如与基于语言的推理不同,Coconut中的连续思维可以同时编码多个潜在下一步,从而实现类似于 BFS(breadth-first search)的探索过程,而这一过程的核心是由一些隐含的价值函数引导来探索完成的。尽管模型在初始阶段可能做出不正确的决策,但其可以在连续思维中保持许多可能的选项,并通过推理逐步排除错误路径。
可以想象的是,通过在模型隐参数层这种类似于BFS的探索与反思过滤,一方面可以在更广阔的探索空间中以图或树型路径进行充分探索,以扩展潜在的可泛化空间边界,同时模型通过对探索过的错误路径的反馈学习,某种程度上对模型参数化知识实现了精细化“增强”或形式化的“压缩指引”(大家如对此处有困惑,可参考之前我的几篇关于模型显性与隐性参数化推理的相关观点笔记),从而在接下来的复杂规划任务实验中超越了传统的CoT,即使模型并没有显式地接受训练或指示以这种方式操作。
最后,研究者也提出了未来在推理侧的两种模式切换策略的挑战并提出:a) 在潜在思维上训练二元分类器,模型自主决定何时终止潜在推理,或 b) 始终将潜在思维填充到恒定长度。