深入浅出Pytorch函数——torch.Tensor.backward

分类目录:《深入浅出Pytorch函数》总目录

相关文章:

· 深入浅出Pytorch函数------torch.Tensor


计算当前张量相对于图的梯度,该函数使用链式法则对图进行微分。如果张量不是一个标量(即其数据具有多个元素)并且需要梯度,则函数还需要指定梯度。它应该是一个匹配类型和位置的张量,包含微分函数的梯度。此函数在累积了图中各叶子结点的梯度,在调用它之前,您可能需要使用zero.grad清零属性或将其设置为None

语法

dart 复制代码
Tensor.backward(gradient=None, retain_graph=None, create_graph=False, inputs=None)

参数

  • gradient:[Tensor/None] 相对张量的梯度。如果它是张量,它将自动转换为不需要grad的张量,除非create_graphTrue。对于标量或不需要梯度的张量应指定为None
  • retain_graph:[可选, bool] 如果为False,则用于计算梯度的图将被释放。请注意,在几乎所有情况下,都不需要将此选项设置为True,而且通常可以以更有效的方式解决。默认为create_graph的值。
  • create_graph:[可选, bool] 如果为True,将构建导数的图,从而可以计算更高阶的导数乘积,默认值为False
  • inputs:[List[Tensor]] 输入张量的梯度将累积为.grad。所有其他张量都将被忽略。如果没有提供,梯度将累积到用于计算的所有叶张量中。
相关推荐
kisshuan123961 小时前
【深度学习】使用RetinaNet+X101-32x4d_FPN_GHM模型实现茶芽检测与识别_1
人工智能·深度学习
Learn Beyond Limits1 小时前
解构语义:从词向量到神经分类|Decoding Semantics: Word Vectors and Neural Classification
人工智能·算法·机器学习·ai·分类·数据挖掘·nlp
崔庆才丨静觅1 小时前
0代码生成4K高清图!ACE Data Platform × SeeDream 专属方案:小白/商家闭眼冲
人工智能·api
哥布林学者2 小时前
吴恩达深度学习课程五:自然语言处理 第一周:循环神经网络 (六)长短期记忆 LSTM
深度学习·ai
qq_356448372 小时前
机器学习基本概念与梯度下降
人工智能
水如烟3 小时前
孤能子视角:关系性学习,“喂饭“的小孩认知
人工智能
徐_长卿3 小时前
2025保姆级微信AI群聊机器人教程:教你如何本地打造私人和群聊机器人
人工智能·机器人
XyX——3 小时前
【福利教程】一键解锁 ChatGPT / Gemini / Spotify 教育权益!TG 机器人全自动验证攻略
人工智能·chatgpt·机器人
十二AI编程4 小时前
Anthropic 封杀 OpenCode,OpenAI 闪电接盘:AI 编程生态的 48 小时闪电战
人工智能·chatgpt