LLama学习记录

学习前:

五大问题:

  1. 为什么SwiGLU激活函数能够提升模型性能?
  2. RoPE位置编码是什么?怎么用的?还有哪些位置编码方式?
  3. GQA(Grouped-Query Attention, GQA)分组查询注意力机制是什么?
  4. Pre-normalization前置 了层归一化,使用**RMSNorm**作为层归一化方法,这是什么意思?还有哪些归一化方法?LayerNorm?
  5. 将self-attention改进为使用KV-Cache的Grouped Query,怎么实现的?原理是什么?

Embedding

Embedding的过程word -> token_id -> embedding_vector,其中第一步转化 使用tokenizer的词表 进行,第二步转化 使用 learnable 的 Embedding layer

这里的第二步,不是很明白怎么实现的,需要再细化验证

RMS Norm

对比Batch Norm 和 Layer Norm:都是减去均值Mean,除以方差Var(还加有一个极小值),最终将归一化为正态分布N(0,1)。只不过两者是在不同的维度(batch还是feature)求均值和方差,(其中,减均值:re-centering 将均值mean变换为0,除方差:re-scaling将方差varance变换为1)。

参考知乎的norm几则

RoPE(Rotary Positional Encodding)

绝对Positional Encodding的使用过程:word -> token_id -> embedding_vector + position_encodding -> Encoder_Input,其中第一步转化使用tokenizer的词表进行,第二步转化使用 learnable 的 Embedding layer。将得到的embedding_vector 和 position_encodding 进行element-wise的相加,然后才做为input送入LLM的encoder。

理解LLM位置编码:RoPE

相关推荐
互联网上的猪19 分钟前
excel的逻辑类型函数(主要包括if、and、or、not、xor、iserror、iferror、true、false、ifs、ifna、switch)
笔记·学习·excel
居然是阿宋1 小时前
UDP学习笔记(四)UDP 为什么大小不能超过 64KB?
笔记·学习·udp
三月七(爱看动漫的程序员)1 小时前
LLM面试题八
数据库·gpt·算法·langchain·prompt·启发式算法·llama
背影疾风2 小时前
Git版本管理系列:(一)使用Git管理单分支
大数据·开发语言·c++·git·学习·elasticsearch
隐-梵2 小时前
Android studio学习之路(六)--真机的调试以及多媒体照相的使用
android·学习·android studio
智享AI2 小时前
使用 LLaMA-Factory 微调 llama3 模型(二)
llama
暮云星影3 小时前
附录:LInux编辑器学习笔记
linux·学习·编辑器
互联网上的猪4 小时前
Excel计数、求和、统计、计算类函数
笔记·学习·excel
University of Feriburg4 小时前
1-linux的基础知识
linux·笔记·学习·嵌入式实时数据库·嵌入式软件·初学者
新加坡内哥谈技术5 小时前
Llama 4 家族:原生多模态 AI 创新新时代的开启
人工智能·深度学习·语言模型·自然语言处理·自动化·llama