记.backward()报错

最近我在模型训练损失里加入了LPIPS深度感知损失,训练的时候就出现了如上的报错,具体解释为:调用梯度反向传播loss.backward()时,我们计算梯度,需要一个标量的loss(即该loss张量的维度为1,只包含一个元素);而LPIPS的输出的loss为一个[4,1,1,1]的4维张量(batch_size,c,h,w),因此报错。

修正:

python 复制代码
def lpips_loss(img1, img2):
    # loss_fn_alex = lpips.LPIPS(net='alex')  # best forward scores
    loss_fn_vgg = lpips.LPIPS(net='vgg')  # closer to "traditional" perceptual loss, when used for optimization
    loss_fn_vgg.cuda()
    loss = loss_fn_vgg.forward(img1, img2)
    loss = torch.mean(loss)
    return loss

参考:

grad can be implicitly created only for scalar outputs-CSDN博客https://blog.csdn.net/qq_39208832/article/details/117415229
lpips · PyPIhttps://pypi.org/project/lpips/

相关推荐
_山止川行14 分钟前
生活
人工智能
是Dream呀18 分钟前
昇腾实战 | 昇腾 NPU 异构编程与 GEMM 调优核心方法
人工智能·华为·cann
JobDocLS20 分钟前
深度学习软件安装
人工智能·深度学习
新智元22 分钟前
2027 年,人类最后一次抉择
人工智能·openai
新智元23 分钟前
DeepSeek V3.2 爆火,Agentic 性能暴涨 40% 解密
人工智能·aigc
多云的夏天27 分钟前
AI-工具使用总结-2025-12
人工智能
哇咔咔_sky34 分钟前
SpeakBot 用自然语言控制机器人 — 说话,它就动。Python+React Native
人工智能
机器之心37 分钟前
从MiniMax到DeepSeek:为何头部大模型都在押注「交错思维」?
人工智能·openai
机器之心39 分钟前
DeepSeek-V3.2巨「吃」Token,竟然是被GRPO背刺了
人工智能·openai
机器之心40 分钟前
云计算一哥出手,大家AI Agent自由了
人工智能·openai