记.backward()报错

最近我在模型训练损失里加入了LPIPS深度感知损失,训练的时候就出现了如上的报错,具体解释为:调用梯度反向传播loss.backward()时,我们计算梯度,需要一个标量的loss(即该loss张量的维度为1,只包含一个元素);而LPIPS的输出的loss为一个[4,1,1,1]的4维张量(batch_size,c,h,w),因此报错。

修正:

python 复制代码
def lpips_loss(img1, img2):
    # loss_fn_alex = lpips.LPIPS(net='alex')  # best forward scores
    loss_fn_vgg = lpips.LPIPS(net='vgg')  # closer to "traditional" perceptual loss, when used for optimization
    loss_fn_vgg.cuda()
    loss = loss_fn_vgg.forward(img1, img2)
    loss = torch.mean(loss)
    return loss

参考:

grad can be implicitly created only for scalar outputs-CSDN博客https://blog.csdn.net/qq_39208832/article/details/117415229
lpips · PyPIhttps://pypi.org/project/lpips/

相关推荐
良策金宝AI4 小时前
让端子排接线图“智能生成”,良策金宝AI推出变电站二次智能设计引擎
大数据·人工智能·工程设计·变电站ai
天云数据5 小时前
神经网络,人类表达的革命
人工智能·深度学习·神经网络·机器学习
xixixi777775 小时前
2026 年 02 月 13 日 AI 前沿、通信和安全行业日报
人工智能·安全·ai·大模型·通信·市场
独自归家的兔5 小时前
深度学习之 CNN:如何在图像数据的海洋中精准 “捕捞” 特征?
人工智能·深度学习·cnn
X54先生(人文科技)5 小时前
20260211_AdviceForTraditionalProgrammers
数据库·人工智能·ai编程
梦想画家6 小时前
数据治理5大核心概念:分清、用好,支撑AI智能化应用
人工智能·数据治理
yhdata6 小时前
锁定2032年!区熔硅单晶市场规模有望达71.51亿元,赛道前景持续向好
大数据·人工智能
deephub7 小时前
RAG 文本分块:七种主流策略的原理与适用场景
人工智能·深度学习·大语言模型·rag·检索
newBorn_19917 小时前
ops-transformer RoPE位置编码 复数旋转硬件加速实战
人工智能·深度学习·transformer·cann