Pi0学习笔记E

学习视频链接:Pi0 - generalist Vision Language Action policy for robots (VLA Series Ep.2) - YouTube

首先补一下Transformer基础:

Transformer从零详细解读(可能是你见过最通俗易懂的讲解)_哔哩哔哩_bilibili

Encoder部分

分为输入部分、注意力机制部分和前馈神经网络部分。

位置编码

知识点:RNN梯度消失是总的梯度受近距离梯度的主导,远距离梯度的消失 (就是如果句子太长,RNN无法保留前面的信息)

**为什么需要位置编码:**因为RNN是串行输入各个字符的,而Transformer是并行、一起输入的,需要记录一下字符的位置信息。

pos指的是"爱"这个单词在句子中的位置,position。i为0-512,是embedding的序号。

相关推荐
weixin_4588726119 小时前
东华复试OJ每日3题打卡·复盘103~105
学习
SuniaWang19 小时前
《Spring AI + 大模型全栈实战》学习手册系列 ·专题三:《Embedding 模型选型指南:从 MMTEB 排名到实际应用》
人工智能·学习·spring
问道飞鱼19 小时前
【Tauri框架学习】Windows 11 环境下 Tauri 开发环境安装与问题解决手册
windows·学习·tauri·开发环境
中屹指纹浏览器19 小时前
2026指纹浏览器与代理IP协同安全体系构建——从特征匹配到行为风控的全链路防护
经验分享·笔记
لا معنى له20 小时前
什么是Active Inference(主动推理)? ——学习笔记
笔记·学习
JicasdC123asd20 小时前
并行双分支瓶颈架构改进YOLOv26异构卷积核协同特征提取与残差学习双重突破
学习·yolo·架构
zhouping@20 小时前
JAVA学习笔记day06
java·笔记·学习
Jack.Jia20 小时前
GPS原理笔记三——GPS卫星轨道理论和计算
笔记
庞轩px20 小时前
内存区域的演进与直接内存——JVM性能优化的权衡艺术
java·jvm·笔记·性能优化
liangshanbo121521 小时前
大模型 RAG 向量数据工程全链路架构笔记
笔记·架构