Pi0学习笔记E

学习视频链接:Pi0 - generalist Vision Language Action policy for robots (VLA Series Ep.2) - YouTube

首先补一下Transformer基础:

Transformer从零详细解读(可能是你见过最通俗易懂的讲解)_哔哩哔哩_bilibili

Encoder部分

分为输入部分、注意力机制部分和前馈神经网络部分。

位置编码

知识点:RNN梯度消失是总的梯度受近距离梯度的主导,远距离梯度的消失 (就是如果句子太长,RNN无法保留前面的信息)

**为什么需要位置编码:**因为RNN是串行输入各个字符的,而Transformer是并行、一起输入的,需要记录一下字符的位置信息。

pos指的是"爱"这个单词在句子中的位置,position。i为0-512,是embedding的序号。

相关推荐
jrlong15 小时前
DataWhale大模型基础与量化微调task4学习笔记(第 1章:参数高效微调_PEFT技术综述)
笔记·学习
leiming615 小时前
linux 进程学习之信号
linux·运维·学习
被遗忘的旋律.15 小时前
Linux驱动开发笔记(二十四)——(上)IIO + icm20608驱动
linux·驱动开发·笔记
zhangrelay15 小时前
thinkpad等笔记本电脑在ubuntu等linux系统下电池校准如何做?
笔记·学习
_Kayo_15 小时前
Node.JS 学习笔记8
笔记·学习·node.js
weixin_4624462315 小时前
使用 Docker / Docker Compose 部署 PdfDing —— 个人 PDF笔记
笔记·docker·pdf
知识分享小能手15 小时前
Oracle 19c入门学习教程,从入门到精通,Oracle 数据表对象 —— 语法知识点详解与案例实践(10)
数据库·学习·oracle
炽烈小老头16 小时前
【每天学习一点算法 2026/01/22】杨辉三角
学习·算法
枷锁—sha16 小时前
【CTF笔记篇】SQL 注入总结
数据库·笔记·sql·安全·网络安全
狐5716 小时前
2026-01-19-论文阅读-Agentic-Reasoning-for-Large-Language-Models
论文阅读·笔记