当前位置: 首页 > news >正文

LLama学习记录

学习前:

五大问题:

  1. 为什么SwiGLU激活函数能够提升模型性能?
  2. RoPE位置编码是什么?怎么用的?还有哪些位置编码方式?
  3. GQA(Grouped-Query Attention, GQA)分组查询注意力机制是什么?
  4. Pre-normalization前置了层归一化,使用RMSNorm 作为层归一化方法,这是什么意思?还有哪些归一化方法?LayerNorm?
  5. 将self-attention改进为使用KV-Cache的Grouped Query,怎么实现的?原理是什么?

Embedding

Embedding的过程word -> token_id -> embedding_vector,其中第一步转化使用tokenizer的词表进行,第二步转化使用 learnable 的 Embedding layer

这里的第二步,不是很明白怎么实现的,需要再细化验证

RMS Norm

对比Batch Norm 和 Layer Norm:都是减去均值Mean,除以方差Var(还加有一个极小值),最终将归一化为正态分布N(0,1)。只不过两者是在不同的维度(batch还是feature)求均值和方差,(其中,减均值:re-centering 将均值mean变换为0,除方差:re-scaling将方差varance变换为1)。

参考知乎的norm几则

RoPE(Rotary Positional Encodding)

绝对Positional Encodding的使用过程:word -> token_id -> embedding_vector + position_encodding -> Encoder_Input,其中第一步转化使用tokenizer的词表进行,第二步转化使用 learnable 的 Embedding layer。将得到的embedding_vector 和 position_encodding 进行element-wise的相加,然后才做为input送入LLM的encoder。

理解LLM位置编码:RoPE

http://www.lryc.cn/news/356711.html

相关文章:

  • 如何克隆非默认分支
  • 数据结构——图
  • 蓝桥杯—SysTick中断精准定时实现闪烁灯
  • ML307R OpenCPU UDP使用
  • pod详解
  • 免费插件集-illustrator插件-Ai插件-文本对象分行
  • web学习笔记(五十九)
  • UE5 UE4 快速定位节点位置
  • go routing 之 gorilla/mux
  • 新火种AI|警钟长鸣!教唆自杀,威胁人类,破坏生态,AI的“反攻”值得深思...
  • AAA实验配置
  • Maven高级详解
  • C++的算法:模拟算法
  • Spring boot集成easy excel
  • 【开发 | 环境配置】解决 VSCode 编写 eBPF 程序找不到头文件
  • View->Bitmap缩放到自定义ViewGroup的任意区域
  • 十种常用数据分析方法
  • 拉格朗日插值及牛顿差商方法的实现(Matlab)
  • 【InternLM实战营第二期笔记】02:大模型全链路开源体系与趣味demo
  • Postgresql源码(134)优化器针对volatile函数的排序优化分析
  • DES加密算法笔记
  • C语⾔:内存函数
  • SqliSniper:针对HTTP Header的基于时间SQL盲注模糊测试工具
  • 3W 1.5KVDC 隔离 宽范围输入,双隔离双输出 DC/DC 电源模块——TPD-3W系列
  • [java基础揉碎]文件IO流
  • [面经] 西山居非正式面试(C++)
  • SOLIDWORKS教育版代理商应该如何选择?
  • 翻译《Use FILE_SHARE_DELETE in your shell extension》
  • 使用Python发送电子邮件
  • Linux-CentOS7-解决vim修改不了主机名称(无法打开并写入文件)