当前位置: 首页 > news >正文

LLM自回归解码

在自然语言处理(NLP)中,大型语言模型(LLM)如Transformer进行推理时,自回归解码是一种生成文本的方式。在自回归解码中,模型在生成下一个单词时会依赖于它之前生成的单词。

使用自回归解码的公式可以表示为以下步骤:

初始化序列:设 ( x 1 , x 2 , . . . , x t − 1 ) ( x_1, x_2, ..., x_{t-1} ) (x1,x2,...,xt1) 是目前已生成的单词序列。

计算下一个单词的概率分布:使用语言模型计算在给定上下文之后下一个单词的概率分布:

[ P ( x t ∣ x 1 , x 2 , . . . , x t − 1 ) ] [ P(x_t | x_1, x_2, ..., x_{t-1}) ] [P(xtx1,x2,...,xt1)]

这一步骤通常使用softmax函数完成,它将单词的logit转换成概率分布。

选择下一个单词:根据概率分布选择下一个单词 ( x t x_t xt )。这可以通过不同的策略来完成,如:

贪婪解码(Greedy Decoding):选择具有最高概率的单词。
[ x t = arg ⁡ max ⁡ P ( x t ∣ x 1 , x 2 , . . . , x t − 1 ) ] [ x_t = \arg\max P(x_t | x_1, x_2, ..., x_{t-1}) ] [xt=argmaxP(xtx1,x2,...,xt1)]

随机抽样(Sampling):根据概率分布随机选择单词,这允许生成更多样化的文本。

束搜索(Beam Search):维护一个宽度为 ( k ) 的束(beam),在每一步选择概率最高的 ( k ) 个单词组合作为候选,然后在这些候选中选择最终的单词序列。

更新序列:将选定的单词 ( x t x_t xt ) 添加到序列中。

重复步骤:重复步骤2-4,直到遇到序列结束标记(如)或者生成了所需长度的文本。

在这里插入图片描述

在实际应用中,自回归解码可能会结合使用温度调整(Temperature Scaling),抑制重复(Repetition Penalty)等技术来改善生成文本的质量和多样性。这些技术可能会影响第3步中的概率分布,但基本的自回归机制保持不变。

http://www.lryc.cn/news/286058.html

相关文章:

  • #Uniapp:uni.request(OBJECT)
  • 旅游项目day14
  • 关于缓存 db redis local 取舍之道
  • imgaug库图像增强指南(33):塑造【云层】效果的视觉魔法
  • 树莓派ubuntu:CSI接口摄像头安装驱动程序及测试
  • Webpack5入门到原理6:处理图片资源
  • 大语言模型(LLM)有哪些?
  • 2 - 部署Redis集群架构
  • NOIP2003提高组T1:神经网络
  • Doris数据库误删除恢复
  • C# byte转int:大小端读取
  • 安全通信网络
  • 深度学习笔记(九)——tf模型导出保存、模型加载、常用模型导出tflite、权重量化、模型部署
  • 七Docker可视化管理工具
  • vue和react的差异梳理
  • (笔记总结)C/C++语言的常用库函数(持续记录,积累量变)
  • OceanBase集群扩缩容
  • html 3D 倒计时爆炸特效
  • 记一次垃圾笔记应用VNote安装失败过程
  • 记一次 stackoverflowerror 线上排查过程
  • 论文写作之十个问题
  • leetcode2171 拿出最少数目的魔法豆
  • 测试C#调用OpenCvSharp和ViewFaceCore从摄像头中识别人脸
  • 测试经理面试初体验
  • 使用ffmpeg调整视频中音频采样率及声道
  • 详细分析Java中的Date类以及格式转换
  • 【计算机网络】应用层——HTTP 协议(一)
  • 线程和进程的区别
  • proxy 代理的接口报错301问题
  • mysql进阶-执行计划