【PyTorch】autograd与逻辑回归

autograd -- 自动求导系统

torch.autograd

autograd

torch.autograd.backward

功能:自动求取梯度

  • tensor:用于求导的张量,如loss
  • retain_graph:保存计算图
  • create_graph:创建导数计算图,用于高阶求导
  • grad_tensors:多梯度权重

torch.autograd.grad

功能:求取梯度

  • outputs:用于求导的张量,如loss
  • inputs:需要梯度的张量
  • create_graph:创建导数计算图,用于高阶求导
  • retain_graph:保存计算图
  • grad_outputs:多梯度权重

autograd小贴士

  1. 梯度不自动清零
  2. 依赖于叶子结点的结点,requires_grad 默认为为 True
  3. 叶子结点不可执行 in-place

逻辑回归

Logistic Regression

基本概念

逻辑回归是线性二分类 模型

线性回归与逻辑回归的区别

线性回归是分析自变量x与因变量y(标量)之间关系的方法

逻辑回归是分析自变量x与因变量y(概率)之间关系的方法

机器学习模型训练步骤

PyTorch 构建模型需要 5 大步骤:

  • 数据:包括数据读取,数据清洗,进行数据划分和数据预处理,比如读取图片如何预处理及数据增强。
  • 模型:包括构建模型模块,组织复杂网络,初始化网络参数,定义网络层。
  • 损失函数:包括创建损失函数,设置损失函数超参数,根据不同任务选择合适的损失函数。
  • 优化器:包括根据梯度使用某种优化器更新参数,管理模型参数,管理多个参数组实现不同学习率,调整学习率。
  • 迭代训练:组织上面 4 个模块进行反复训练。包括观察训练效果,绘制 Loss/ Accuracy 曲线,用 TensorBoard 进行可视化分析。

参考链接

PyTorch 学习笔记

相关推荐
hit56实验室1 天前
AI4Science开源汇总
人工智能
CeshirenTester1 天前
9B 上端侧:多模态实时对话,难点其实在“流”
开发语言·人工智能·python·prompt·测试用例
relis1 天前
Tiny-GPU 仿真与静态分析完整指南:Pyslang + Cocotb 实战
人工智能
njsgcs1 天前
agentscope怎么在对话的时候调用记忆的
人工智能
泯泷1 天前
提示工程的悖论:为什么与 AI 对话比你想象的更难
人工智能·后端·openai
逻极1 天前
BMAD之落地实施:像CTO一样指挥AI编码 (Phase 4_ Implementation)——必学!BMAD 方法论架构从入门到精通
人工智能·ai·系统架构·ai编程·ai辅助编程·bmad·ai驱动敏捷开发
冰西瓜6001 天前
深度学习的数学原理(七)—— 优化器:从SGD到Adam
人工智能·深度学习
模型时代1 天前
Claude AI 发现 500 个高危软件漏洞
人工智能
love530love1 天前
【OpenClaw 本地实战 Ep.3】突破瓶颈:强制修改 openclaw.json 解锁 32k 上下文记忆
人工智能·windows·json·cuda·lm studio·openclaw·context length
星爷AG I1 天前
11-7 因果(AGI基础理论)
人工智能·agi