Torch 加速

loss.item()

  1. 费时
python 复制代码
loss.backward()
loss_item = loss.item()  # todo loss.item() 这个比较费时间  0.2743 秒
  1. 省时
python 复制代码
loss_item = loss.item()   #todo 把它 移到 loss.backward() 前面,这个操作只需要 0.00027 秒
loss.backward()

Index

python 复制代码
d_inv[torch.isinf(d_inv)] = 0.0  # todo 这个超级费时间 大约 0.04秒

Top-k 替换 argsort

python 复制代码
torch.argsort(pc1_sampling_confidence, dim=-1, descending=True)[:, :64] # 费时
torch.topk(pc1_sampling_confidence, 64, dim=-1) # 省时

申明对象

python 复制代码
torch.arange(B, dtype=torch.long, device="cuda") # 省时
torch.arange(B, dtype=torch.long).to("cuda")  # 费时

A.to("cuda") 与 A.cuda() 是一样的时间
相关推荐
java1234_小锋9 分钟前
一周学会Matplotlib3 Python 数据可视化-绘制自相关图
开发语言·python·信息可视化·matplotlib·matplotlib3
HUIMU_15 分钟前
DAY12&DAY13-新世纪DL(Deeplearning/深度学习)战士:破(改善神经网络)1
人工智能·深度学习
致Great37 分钟前
DeepResearch开源与闭源方案对比
人工智能·chatgpt
黎燃1 小时前
AI驱动的供应链管理:需求预测实战指南
人工智能
天波信息技术分享1 小时前
AI云电脑盒子技术分析——从“盒子”到“算力云边缘节点”的跃迁
人工智能·电脑
CoderJia程序员甲1 小时前
GitHub 热榜项目 - 日榜(2025-08-16)
人工智能·ai·开源·github
KirkLin1 小时前
Kirk:练习时长两年半的AI Coding经验
人工智能·程序员·全栈
mit6.8241 小时前
[1Prompt1Story] 注意力机制增强 IPCA | 去噪神经网络 UNet | U型架构分步去噪
人工智能·深度学习·神经网络
挽淚2 小时前
(小白向)什么是Prompt,RAG,Agent,Function Calling和MCP ?
人工智能·程序员
Jina AI2 小时前
回归C++: 在GGUF上构建高效的向量模型
人工智能·算法·机器学习·数据挖掘·回归