【自动驾驶BEV感知之Transformer】

欢迎大家关注我的B站:

偷吃薯片的Zheng同学的个人空间-偷吃薯片的Zheng同学个人主页-哔哩哔哩视频 (bilibili.com)

本文为深蓝学院《BEV感知理论与实践》 的学习笔记

  • 以图书馆看书举例

  • query:查询,感兴趣的东西

  • Key:索引,书的名字、目录

  • Value:值,书的详细内容

  • Transformer可以看作我们有自己感兴趣的方向,然后去图书馆里找,怎么找呢,肯定是看书的名字,翻一下目录来确定和你的兴趣是否匹配,如果匹配就翻开书挑里面感兴趣的东西进行学习

  • Attention也就是注意力是query和Key的点积,代表两者之间的相似度,相似肯定需要更加关注,然后通过Attention乘value也能更新value从而提取出value中更重要的内容

  • 以Hi how are you 为例子,对这四个词进行编码,每个都得到一个256维的向量,可以理解为在256个维度对这个词的一些描述来表征这个词

  • 然后他们分别对应的QKV通过同一批权重矩阵相乘得到

  • 然后以Hi为例,他的query和别人的key点积得到Attention,再乘上别人的value得到在自己的value基础上可以更新的内容,然后Hi要和其他三个以及他自己都做这个操作

  • 互相之间的QKV操作其实本质上是学习了更好的全局特征,通过别人来丰富自己

  • 输入输出都是256维的向量,内部其实在相互之间学习,也称为self-Attention

  • self-Attention的本质是来自同一组embedding

  • 这是矩阵的形式,核心就是得到了一个Attention矩阵

  • 然后通过缩放更稳定,以及一个softmax得到了概率矩阵

  • self-Attention的目的是学习全局信息,找到自己的ID

  • multi-head:每个头独立关注输入的不同子空间,有助于学习多样化的特征,但维持整体输出维度不变

  1. encoder和decoder如何交互

    1. Query:来自 Decoder 当前时间步的隐藏状态。

    2. Key 和 Value:来自 Encoder 的输出表示

  2. 三种Attention

    1. encoder:自注意力机制

    2. decoder:Masked 自注意力(屏蔽未来的词,确保自回归) → Encoder-Decoder 注意力

  3. Padding mask

    1. 用于忽略填充位置,确保它们不影响注意力权重和损失计算

    2. 设置为负无穷的score使得softmax的概率为0

相关推荐
杜子不疼.1 小时前
计算机视觉热门模型手册:Spring Boot 3.2 自动装配新机制:@AutoConfiguration 使用指南
人工智能·spring boot·计算机视觉
无心水3 小时前
【分布式利器:腾讯TSF】7、TSF高级部署策略全解析:蓝绿/灰度发布落地+Jenkins CI/CD集成(Java微服务实战)
java·人工智能·分布式·ci/cd·微服务·jenkins·腾讯tsf
北辰alk8 小时前
RAG索引流程详解:如何高效解析文档构建知识库
人工智能
九河云8 小时前
海上风电“AI偏航对风”:把发电量提升2.1%,单台年增30万度
大数据·人工智能·数字化转型
wm10438 小时前
机器学习第二讲 KNN算法
人工智能·算法·机器学习
沈询-阿里9 小时前
Skills vs MCP:竞合关系还是互补?深入解析Function Calling、MCP和Skills的本质差异
人工智能·ai·agent·ai编程
xiaobai1789 小时前
测试工程师入门AI技术 - 前序:跨越焦虑,从优势出发开启学习之旅
人工智能·学习
盛世宏博北京9 小时前
云边协同・跨系统联动:智慧档案馆建设与功能落地
大数据·人工智能
TGITCIC9 小时前
讲透知识图谱Neo4j在构建Agent时到底怎么用(二)
人工智能·知识图谱·neo4j·ai agent·ai智能体·大模型落地·graphrag
逆羽飘扬9 小时前
DeepSeek-mHC深度拆解:流形约束如何驯服狂暴的超连接?
人工智能