当前位置: 首页 > news >正文

基于 Transformer 的大语言模型

语言建模作为语言模型(LMs)的基本功能,涉及对单词序列的建模以及预测后续单词的分布。

近年来,研究人员发现,扩大语言模型的规模不仅增强了它们的语言建模能力,而且还产生了处理传统NLP任务之外更复杂任务的新兴能力。

这些扩大规模的语言模型被称为大型语言模型(LLMs)。

主流的LLMs基于Transformer架构设计

具体来说,一个典型的Transformer架构由多个堆叠的Transformer块组成。

图片

通常,一个Transformer块由一个多头自注意力(MHSA)模块、一个前馈网络(FFN)和一个层归一化(LN)操作组成。

对于每个块,它接收前一个块的输出特征作为输入,并通过每个子模块传递特征以获得输出。

特别地,在第一个块之前,使用分词器将原始输入句子转换为一系列标记,随后的嵌入层用于将标记转换为输入特征。

然后,将额外的位置嵌入添加到输入特征中,以编码每个输入标记的顺序。

Transformer架构的核心概念是自注意力机制,它在MHSA模块中采用。具体来说,表示输入特征为X = [x1, x2, ..., xn],MHSA模块对它们进行线性投影并获得一组查询Q、键K和值V,如公式所示:

图片

其中WQi、WKi和WVi分别是第i个头的投影矩阵。

然后自注意力操作应用于每组(Qi, Ki, Vi)并得到第i个头的特征Zi,如公式所示:

图片

其中dk是查询(键)的维度。

注意,自注意力操作包含矩阵乘法操作,其计算复杂度是对输入长度的二次方。最后,MHSA模块将所有注意力头的特征连接起来,并通过线性投影形成其输出Z,如公式所示:

图片

其中WO是投影矩阵。

可以看到,自注意力机制允许模型识别不同输入部分的重要性,无论距离如何,并且可以捕捉输入句子中的长距离依赖和复杂关系。

Transformer块中的另一个重要模块是FFN。

通常,FFN位于MHSA模块之后,由两个带有非线性激活函数的线性变换层组成。它接收MHSA模块的输出特征X,如公式所示:

图片

其中W1和W2表示两个线性层的权重矩阵,σ(·)表示激活函数。

本文翻译自清华大学最新成果论文:《A Survey on Efficient Inference for Large Language Models 》,https://arxiv.org/pdf/2404.14294。


更多关于大语言模型的介绍,可以查看《Transformer最后一公里》专栏。

http://www.lryc.cn/news/372340.html

相关文章:

  • 证照之星是一款很受欢迎的证件照制作软件
  • 不定时更新 解决无法访问GitHub github.com 打不开 dns访问加速
  • 单向环形链表的创建与判断链表是否有环
  • JVM堆栈的区别、分配内存与并发安全问题、对象定位
  • Python教程:机器学习 - 百分位数(4)
  • 数据结构习题(快期末了)
  • Http协议:Http缓存
  • idea插件开发之hello idea plugin
  • Sm4【国密4加密解密】
  • git如果将多次提交压缩成一次
  • android用Retrofit进行网络请求和解析
  • list容器的基本使用
  • 34万汉语词语成语反义词ACCESS\EXCEL数据库
  • yum方式更新Jenkins
  • 欢乐钓鱼大师保姆级教程,云手机辅助攻略解析!
  • 数据结构:手撕代码——顺序表
  • jenkins使用注意问题
  • Kaggle -- Titanic - Machine Learning from Disaster
  • 蓝牙音频解码芯片TD5163介绍,支持红外遥控—拓达半导体
  • windows 下 docker 入门
  • 《别让“想太多”挡了你的骑行路,对比一下更丝滑》
  • hadoop和hbase对应版本关系
  • 现代X86汇编-C和ASM混合编程举例
  • 485. 最大连续 1 的个数
  • 席卷的B站《植物大战僵尸杂交版》V2.0.88整合包,PC和手机可用,含通关存档和视频教程!
  • 液晶拼接屏企业应该采取哪些措施来提升整体竞争力和市场地位呢?
  • PHP在线生成查询产品防伪证书系统源码
  • 遥控玩具车电机驱动应用中的双H桥驱动芯片
  • Linux 基本指令1
  • 基于Seatunnel最新2.3.5版本分布式集群安装部署指南(小白版)