PyTorch中view/transpose/permute的内存可视化解析

PyTorch中view/transpose/permute的内存可视化解析

在多头注意力机制的实现中,viewtransposepermute是核心的维度调整操作,三者均不改变张量在内存中的一维存储顺序,仅改变维度的解读方式。以下通过内存可视化表格和核心说明解析三者的作用。

一、view操作:张量形状重塑(维度拆分)

核心说明

view的作用是在不改变内存中元素存储顺序的前提下,重塑张量的维度形状 。在多头注意力中,view将形状为(batch, seq, d_model)的Q/K/V张量拆分为(batch, seq, n_head, d_k),把模型总维度d_model拆分为多个注意力头的维度组合n_head × d_k,是实现"多头拆分"的基础操作。

内存可视化表格

内存地址(简化) 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 ...
view前的维度解读 (batch, seq, d_model) batch0-seq0-d0 batch0-seq0-d1 batch0-seq0-d2 batch0-seq0-d3 batch0-seq0-d4 batch0-seq0-d5 batch0-seq0-d6 batch0-seq0-d7 batch0-seq1-d0 batch0-seq1-d1 batch0-seq1-d2 batch0-seq1-d3 batch0-seq1-d4 batch0-seq1-d5 batch0-seq1-d6 batch0-seq1-d7 ...
view后的维度解读 (batch, seq, n_head, d_k) batch0-seq0-head0-d0 batch0-seq0-head0-d1 batch0-seq0-head0-d2 batch0-seq0-head0-d3 batch0-seq0-head1-d0 batch0-seq0-head1-d1 batch0-seq0-head1-d2 batch0-seq0-head1-d3 batch0-seq1-head0-d0 batch0-seq1-head0-d1 batch0-seq1-head0-d2 batch0-seq1-head0-d3 batch0-seq1-head1-d0 batch0-seq1-head1-d1 batch0-seq1-head1-d2 batch0-seq1-head1-d3 ...
实际存储的数值 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 ...

二、transpose操作:两个维度的交换

核心说明

transpose的作用是交换张量中指定的两个维度 ,仅改变维度的解读顺序,不改变内存中元素的存储顺序。在多头注意力中,transpose(1, 2)(batch, seq, n_head, d_k)seq(维度1)和n_head(维度2)交换,得到(batch, n_head, seq, d_k),让每个注意力头能独立对序列计算注意力,是调整维度顺序的轻量操作。

内存可视化表格

内存地址(简化) 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 ...
transpose前的维度解读 (batch, seq, n_head, d_k) batch0-seq0-head0-d0 batch0-seq0-head0-d1 batch0-seq0-head0-d2 batch0-seq0-head0-d3 batch0-seq0-head1-d0 batch0-seq0-head1-d1 batch0-seq0-head1-d2 batch0-seq0-head1-d3 batch0-seq1-head0-d0 batch0-seq1-head0-d1 batch0-seq1-head0-d2 batch0-seq1-head0-d3 batch0-seq1-head1-d0 batch0-seq1-head1-d1 batch0-seq1-head1-d2 batch0-seq1-head1-d3 ...
transpose后的维度解读 (batch, n_head, seq, d_k) batch0-head0-seq0-d0 batch0-head0-seq0-d1 batch0-head0-seq0-d2 batch0-head0-seq0-d3 batch0-head1-seq0-d0 batch0-head1-seq0-d1 batch0-head1-seq0-d2 batch0-head1-seq0-d3 batch0-head0-seq1-d0 batch0-head0-seq1-d1 batch0-head0-seq1-d2 batch0-head0-seq1-d3 batch0-head1-seq1-d0 batch0-head1-seq1-d1 batch0-head1-seq1-d2 batch0-head1-seq1-d3 ...
实际存储的数值 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 ...

三、permute操作:任意维度的重排

核心说明

permute是更通用的维度调整操作,能按指定顺序重排张量的所有维度 ,同样不改变内存中元素的存储顺序。在多头注意力中,permute(0, 2, 1, 3)transpose(1, 2)效果完全一致,将维度顺序从(batch, seq, n_head, d_k)改为(batch, n_head, seq, d_k),适合需要同时调整多个维度的复杂场景。

内存可视化表格

内存地址(简化) 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 ...
permute前的维度解读 (batch, seq, n_head, d_k) batch0-seq0-head0-d0 batch0-seq0-head0-d1 batch0-seq0-head0-d2 batch0-seq0-head0-d3 batch0-seq0-head1-d0 batch0-seq0-head1-d1 batch0-seq0-head1-d2 batch0-seq0-head1-d3 batch0-seq1-head0-d0 batch0-seq1-head0-d1 batch0-seq1-head0-d2 batch0-seq1-head0-d3 batch0-seq1-head1-d0 batch0-seq1-head1-d1 batch0-seq1-head1-d2 batch0-seq1-head1-d3 ...
permute后的维度解读 (batch, n_head, seq, d_k) batch0-head0-seq0-d0 batch0-head0-seq0-d1 batch0-head0-seq0-d2 batch0-head0-seq0-d3 batch0-head1-seq0-d0 batch0-head1-seq0-d1 batch0-head1-seq0-d2 batch0-head1-seq0-d3 batch0-head0-seq1-d0 batch0-head0-seq1-d1 batch0-head0-seq1-d2 batch0-head0-seq1-d3 batch0-head1-seq1-d0 batch0-head1-seq1-d1 batch0-head1-seq1-d2 batch0-head1-seq1-d3 ...
实际存储的数值 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 ...

四、三者核心区别与联系

操作 核心功能 适用场景 内存特点
view 重塑张量维度形状 拆分/合并维度(如多头拆分) 不改变元素存储顺序,仅改变维度解读
transpose 交换两个指定维度 简单的二维交换场景 不改变元素存储顺序,仅改变维度顺序
permute 按顺序重排所有维度 多维度复杂调整场景 不改变元素存储顺序,仅改变维度顺序

关键共性 :三个操作均不会修改张量在内存中的一维连续存储顺序,仅改变"多维索引与内存地址的映射关系",因此都是轻量级的维度调整操作 ,无内存拷贝开销(仅当调用contiguous()时会产生内存拷贝)。

相关推荐
qq_12498707531 小时前
基于Hadoop的信贷风险评估的数据可视化分析与预测系统的设计与实现(源码+论文+部署+安装)
大数据·人工智能·hadoop·分布式·信息可视化·毕业设计·计算机毕业设计
Coder_Boy_1 小时前
TensorFlow小白科普
人工智能·深度学习·tensorflow·neo4j
全栈老石2 小时前
Python 异步生存手册:给被 JS async/await 宠坏的全栈工程师
后端·python
L、2182 小时前
CANN 中的图优化技术详解:如何让 AI 模型跑得更快、更省
人工智能
大模型玩家七七2 小时前
梯度累积真的省显存吗?它换走的是什么成本
java·javascript·数据库·人工智能·深度学习
新缸中之脑2 小时前
像画家一样编程
人工智能
tq10862 小时前
心主神明:传统智慧如何启示AI的可靠之道
人工智能
梨落秋霜2 小时前
Python入门篇【模块/包】
python
珠海西格电力科技2 小时前
微电网能量平衡理论的实现条件在不同场景下有哪些差异?
运维·服务器·网络·人工智能·云计算·智慧城市
新缸中之脑2 小时前
“AI 裁员“神话
人工智能