torch.view()和.reshape()

view只能作用在连续的张量上(张量中元素的内存地址是连续的)。而reshape连续or非连续都可以。

调用x.reshape的时候,如果x在内存中是连续的,那么x.reshape会返回一个view(原地修改,此时内存地址不变),否则就会返回一个新的张量(这时候内存地址变了)。

python 复制代码
import torch

a = torch.rand(2, 3)
b = a.permute(1, 0)  # 地址不连续
c = b.reshape(6)

print(id(a), id(b), id(c))
# 2423946308560 2423946344864 2423946631984

d = b.view(6)  # 报错
相关推荐
艾醒(AiXing-w)几秒前
玩转大语言模型——使用langchain和Ollama本地部署大语言模型
人工智能·语言模型·langchain
我的青春不太冷17 分钟前
2025年最新在线模型转换工具优化模型ncnn,mnn,tengine,onnx
人工智能·深度学习·ncnn·mnn·在线模型转换网址
云卷云舒___________22 分钟前
【B站保姆级视频教程:Jetson配置YOLOv11环境(六)PyTorch&Torchvision安装】
人工智能·pytorch·yolo·教程·jetson·torchvision
是Dream呀27 分钟前
Python从0到100(八十六):神经网络-ShuffleNet通道混合轻量级网络的深入介绍
网络·python·神经网络
zxfeng~28 分钟前
深度学习之“线性代数”
人工智能·python·深度学习·线性代数
油泼辣子多加32 分钟前
Diffusion--人工智能领域的革命性技术
人工智能
叫我DPT1 小时前
Python 中 `finally` 的执行时机与 `return` 的微妙关系
python
FL16238631292 小时前
玉米苗和杂草识别分割数据集labelme格式1997张3类别
深度学习
东锋1.32 小时前
NVIDIA (英伟达)的 GPU 产品应用领域
人工智能