Torch 加速

loss.item()

  1. 费时
python 复制代码
loss.backward()
loss_item = loss.item()  # todo loss.item() 这个比较费时间  0.2743 秒
  1. 省时
python 复制代码
loss_item = loss.item()   #todo 把它 移到 loss.backward() 前面,这个操作只需要 0.00027 秒
loss.backward()

Index

python 复制代码
d_inv[torch.isinf(d_inv)] = 0.0  # todo 这个超级费时间 大约 0.04秒

Top-k 替换 argsort

python 复制代码
torch.argsort(pc1_sampling_confidence, dim=-1, descending=True)[:, :64] # 费时
torch.topk(pc1_sampling_confidence, 64, dim=-1) # 省时

申明对象

python 复制代码
torch.arange(B, dtype=torch.long, device="cuda") # 省时
torch.arange(B, dtype=torch.long).to("cuda")  # 费时

A.to("cuda") 与 A.cuda() 是一样的时间
相关推荐
Johny_Zhao5 分钟前
Vmware workstation安装部署微软SCCM服务系统
网络·人工智能·python·sql·网络安全·信息安全·微软·云计算·shell·系统运维·sccm
waterHBO7 分钟前
python + flask 做一个图床
python
动感光博19 分钟前
Unity(URP渲染管线)的后处理、动画制作、虚拟相机(Virtual Camera)
开发语言·人工智能·计算机视觉·unity·c#·游戏引擎
欲掩35 分钟前
神经网络与深度学习第六章--循环神经网络(理论)
rnn·深度学习·神经网络
IT古董37 分钟前
【漫话机器学习系列】259.神经网络参数的初始化(Initialization Of Neural Network Parameters)
人工智能·神经网络·机器学习
tyatyatya43 分钟前
神经网络在MATLAB中是如何实现的?
人工智能·神经网络·matlab
ZWaruler1 小时前
二: 字典及函数的使用
python
蚰蜒螟1 小时前
深入解析JVM字节码解释器执行流程(OpenJDK 17源码实现)
开发语言·jvm·python
Jackson@ML1 小时前
一分钟了解大语言模型(LLMs)
人工智能·语言模型·自然语言处理
让学习成为一种生活方式1 小时前
大麦(Hordeum vulgare)中 BAHD 超家族酰基转移酶-文献精读129
人工智能