torch.view()和.reshape()

view只能作用在连续的张量上(张量中元素的内存地址是连续的)。而reshape连续or非连续都可以。

调用x.reshape的时候,如果x在内存中是连续的,那么x.reshape会返回一个view(原地修改,此时内存地址不变),否则就会返回一个新的张量(这时候内存地址变了)。

python 复制代码
import torch

a = torch.rand(2, 3)
b = a.permute(1, 0)  # 地址不连续
c = b.reshape(6)

print(id(a), id(b), id(c))
# 2423946308560 2423946344864 2423946631984

d = b.view(6)  # 报错
相关推荐
我的username1 天前
极致简单的openclaw安装教程
人工智能
小锋java12341 天前
【技术专题】嵌入模型与Chroma向量数据库 - Chroma 集合操作
人工智能
七月丶1 天前
别再手动凑 PR 了:这个 AI Skill 会按仓库习惯自动建分支、拆提交、提 PR
人工智能·设计模式·程序员
AI攻城狮1 天前
用 Playwright 实现博客一键发布到稀土掘金
python·自动化运维
用户5191495848451 天前
CVE-2024-10793 WordPress插件权限提升漏洞利用演示
人工智能·aigc
曲幽1 天前
FastAPI分布式系统实战:拆解分布式系统中常见问题及解决方案
redis·python·fastapi·web·httpx·lock·asyncio
chaors1 天前
从零学RAG0x01之向量化
人工智能·aigc·ai编程
chaors1 天前
从零学RAG0x02向量数据库
人工智能·aigc·ai编程
陈少波AI应用笔记1 天前
硅谷龙虾大战技术拆解:当AI长出爪子
人工智能