大模型训练_week3_day15_Llama概念_《穷途末路》

目录


前言

碎碎念:我翻山越岭,纵然这世间再也无人像你

梳理llama架构,和transformer很像,新学到 embedding后的词向量RMSnorm,和qk矩阵融合的Rope旋转编码,SwiGLU激活函数,GQA分组查询注意力机制


llama

分词器

l和l组合的概率高,所以把它重新组成为一个ll的词元

比如 it's 42! it, 's , 42, !

在自然语言处理中的 BPE 分词器的工作原理如下:

  1. 初始化 :首先,将所有词汇表中的单词分解为单个字符或符号。例如,单词 "hello" 会被表示为 ["h", "e", "l", "l", "o"]

  2. 统计频率:接下来,统计所有字符对(相邻字符组合)的出现频率。例如,如果 "l" 和 "l" 出现在一起的频率最高,那么它们会被作为一个新的词元 "ll"。

  3. 合并频率最高的字符对:将出现频率最高的字符对合并成一个新的词元。然后重复这个过程,直到达到预定义的词元数量或不能再合并为止。

  4. 生成词汇表:最终生成的词汇表包含了从单个字符到更复杂的子词的所有词元,这些词元可以组合成原始的单词和短语。

分词完后通过id 到embedding去查token向量,id=279,就到大矩阵里拿280列向量

RMS对嵌入向量进行归一化

ROPE

先构建第一层的注意力机制,为什么不直接位置编码?

因为ROPE融入了QKV

RoPE(旋转位置编码)

RoPE 是一种高效的位置编码方法,通过旋转向量的方式将位置信息注入到查询(query)和键(key)向量中。

  1. 核心思想
  • 对查询向量和键向量进行 旋转,旋转的角度与 token 的位置相关。

  • 旋转后的向量既保留了原始信息,又包含了位置信息。

  1. 公式
  1. 效果
  • 对于不同位置的相同 token(例如三个 "the"),RoPE 会生成不同的查询向量。

  • 旋转后的查询向量既包含了 token 的语义信息,也包含了位置信息。

为什么不用PE, ROPE优势是什么

Q和K旋转完了之后,V要不要旋转?

词和词之间的相对关系。 苹果性能好,怎么把苹果向手机上偏移呢

mask

上半角的矩阵代表后面单词对前面单词的影响,底下代表前面对后面的影响

姑且把纵向作为后面的单词,在decoder里 纵向的单词对横向即前面的单词是没影响的。所以把右上角的三角的矩阵掩码

再经过wo得到attention_score后先进行一次rms归一化

ffn

swishGLU 激活函数

相关推荐
高洁0114 小时前
大模型部署资源不足?轻量化部署解决方案
python·深度学习·机器学习·数据挖掘·transformer
机械X人14 小时前
Encoder-Decoder PLM
人工智能·深度学习
小锋java123414 小时前
天天说的 Agent,到底是啥???
人工智能
忆往wu前14 小时前
从0到1一步步拆解搭建,梳理一个 Vue3 简易图书后台全开发流程
前端·javascript·vue.js
阿里云大数据AI技术14 小时前
MaxFrame 视频帧智能分析:从视频到语义向量的端到端分布式处理
人工智能·python
大模型任我行14 小时前
谷歌:大模型规划最优性超越传统算法
人工智能·语言模型·自然语言处理·论文笔记
两万五千个小时14 小时前
为什么你的 Agent 读了文件,却好像什么都没读到?
人工智能·程序员·架构
木斯佳14 小时前
前端八股文面经大全:字节抖音前端三面(2026-04-27)·面经深度解析
前端·面试·笔试·八股·面经
淘矿人14 小时前
从0到1:用Claude启动你的第一个项目
开发语言·人工智能·git·python·github·php·pygame
love530love14 小时前
Windows Podman Machine 虚拟硬盘迁移完整指南:从 C 盘到非系统盘
c语言·人工智能·windows·podman