pytorch | contiguous() 函数

1. 背景

torch中一些操作会改变原数据,比如:narrow() view() expand() transpose()等操作,在使用transpose()进行转置操作时,pytorch并不会创建新的、转置后的tensor,而是修改了tensor中的一些属性(也就是元数据),使得此时的offset和stride是与转置tensor相对应的。转置的tensor和原tensor的内存是共享的,即改变转置后的tensor, 原先tensor中内容也会改变,而contiguous方法就类似深拷贝,使得上面这些操作不会改变元数据

2. 示例

python 复制代码
x = torch.randn(3, 2)
y = torch.transpose(x, 0, 1)
print("修改前:")
print("x-", x)
print("y-", y)
 
print("\n修改后:")
y[0, 0] = 11
print("x-", x)
print("y-", y)

输出:修改后的 x 会随 y 的改变而改变

修改前:

x- tensor([[-1.2076, -0.5300],

-0.0826, -1.0144\], \[ 1.2097, -1.2360\]\]) y- tensor(\[\[-1.2076, -0.0826, 1.2097\], \[-0.5300, -1.0144, -1.2360\]\])

修改后:

x- tensor([[11.0000, -0.5300],

-0.0826, -1.0144\], \[ 1.2097, -1.2360\]\]) y- tensor(\[\[11.0000, -0.0826, 1.2097\], \[-0.5300, -1.0144, -1.2360\]\])

使用 conguous方法

python 复制代码
import torch
x = torch.randn(3, 2)
y = torch.transpose(x, 0, 1).contiguous()
print("修改前:")
print("x-", x)
print("y-", y)
 
print("\n修改后:")
y[0, 0] = 11
print("x-", x)
print("y-", y)

输出: 可以看到x并没有随y的改变而改变

x- tensor([[ 1.3756, -0.1766],

0.9518, -1.7000\], \[-1.0423, -0.6077\]\]) y- tensor(\[\[ 1.3756, 0.9518, -1.0423\], \[-0.1766, -1.7000, -0.6077\]\])

修改后:

x- tensor([[ 1.3756, -0.1766],

0.9518, -1.7000\], \[-1.0423, -0.6077\]\]) y- tensor(\[\[11.0000, 0.9518, -1.0423\], \[-0.1766, -1.7000, -0.6077\]\])

3. 总结

当调用 contiguous() 时,会强制拷贝一份 tensor,让它的布局和从头创建的一模一样,使得两个 tensor 完全没有联系,类似于深拷贝

相关推荐
shadowcz0071 小时前
关于GEO的研究总结#使用 Notebooklm 来研究论文和整理报告#PDF分享
人工智能·pdf
生成论实验室1 小时前
即事是道:一种基于生成论的分布式体验存在论
人工智能·分布式·科技·神经网络·信息与通信
锋行天下6 小时前
公司内网部署大模型的探索之路
前端·人工智能·后端
quikai19817 小时前
python练习第二组
开发语言·python
熊猫_豆豆7 小时前
python 用手势控制程序窗口文字大小
python·手势识别
测试秃头怪8 小时前
2026最新软件测试面试八股文(含答案+文档)
自动化测试·软件测试·python·功能测试·测试工具·面试·职场和发展
LUU_798 小时前
Day29 异常处理
python
子夜江寒8 小时前
Python 学习-Day8-执行其他应用程序
python·学习
背心2块钱包邮8 小时前
第7节——积分技巧(Integration Techniques)-代换积分法
人工智能·python·深度学习·matplotlib
无心水8 小时前
【分布式利器:大厂技术】4、字节跳动高性能架构:Kitex+Hertz+BytePS,实时流与AI的极致优化
人工智能·分布式·架构·kitex·分布式利器·字节跳动分布式·byteps